Mastra + Ertas
Construye agentes de IA listos para produccion en TypeScript con Mastra: un framework sobre el Vercel AI SDK que gestiona flujos de trabajo, memoria, evaluaciones y despliegue, con soporte de primera clase para modelos locales ajustados.
Overview
Mastra es un framework de agentes orientado a TypeScript construido sobre el Vercel AI SDK. Apunta a la brecha de desarrollo de agentes en produccion que frameworks como LangGraph y CrewAI cubren en Python — orquestacion de flujos de trabajo, memoria persistente, evaluaciones estructuradas, observabilidad y patrones de despliegue — pero con la ergonomia de TypeScript y una integracion estrecha con el ecosistema JavaScript/edge. Desde alcanzar la version 1.0 en enero de 2026, Mastra ha crecido a mas de 22K estrellas en GitHub y mas de 300K descargas semanales en npm, convirtiendose en el framework de agentes para produccion dominante en el ecosistema TypeScript.
La filosofia de diseno de Mastra enfatiza la complejidad incremental: puedes empezar con un solo agente, agregar herramientas y flujos de trabajo a medida que tus necesidades crecen, e integrar memoria y evaluaciones sin reestructurar tu codigo. El framework proporciona primitivas de primera clase para maquinas de estado de agentes (workflows), memoria conversacional (con varios backends de almacenamiento), uso estructurado de herramientas y puntos de control con humano en el bucle. Como se construye sobre el Vercel AI SDK, Mastra hereda compatibilidad con mas de 3.300 modelos de 94 proveedores, incluyendo cualquier endpoint compatible con OpenAI que sirva un modelo entrenado con Ertas.
How Ertas Integrates
Los modelos entrenados con Ertas se integran en agentes de Mastra a traves de las abstracciones de proveedor del Vercel AI SDK. Despues de ajustar un modelo en Ertas Studio y desplegarlo en Ollama, vLLM o Ertas Cloud (cualquier endpoint compatible con OpenAI), configuras un agente de Mastra para usar ese endpoint, normalmente con dos lineas de configuracion del proveedor. A partir de ahi, todas las funciones del framework de Mastra (herramientas, flujos de trabajo, memoria, evaluaciones) funcionan de forma transparente con tu modelo ajustado igual que con un modelo frontera via API.
El diseno nativo en TypeScript es particularmente valioso para equipos que envian funciones de IA a productos JavaScript existentes. Aplicaciones web, edge functions, backends de aplicaciones moviles y servicios Node.js pueden usar agentes de Mastra directamente sin necesidad de hacer puente con un servicio Python. Combinado con modelos entrenados con Ertas servidos en la misma infraestructura edge (por ejemplo via Ollama en un servidor autoalojado o Ertas Cloud), esto permite despliegues de agentes en TypeScript totalmente autocontenidos sin barreras de lenguaje, un punto de dolor comun en arquitecturas de agentes multilenguaje.
Getting Started
- 1
Ajusta un modelo en Ertas Studio
Entrena tu modelo especifico de dominio sobre datos JSONL via Ertas Studio. El modelo ajustado captura el vocabulario de tu dominio, los patrones de razonamiento y las convenciones de uso de herramientas.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve via Ollama, vLLM o Ertas Cloud. Mastra funciona con cualquier endpoint que exponga la API estandar /v1/chat/completions.
- 3
Instala Mastra y configura el proveedor de modelo
Instala @mastra/core y configura un proveedor personalizado compatible con OpenAI apuntando a tu endpoint de inferencia. El helper createOpenAI del Vercel AI SDK gestiona esto directamente.
- 4
Define tu agente con herramientas y flujos de trabajo
Crea un agente de Mastra con descripcion de rol, herramientas (llamadas a funciones, recuperadores RAG) y pasos de flujo de trabajo. Anade memoria persistente si tu caso de uso abarca interacciones multisesion.
- 5
Anade evaluaciones y envia a produccion
Configura las evaluaciones de Mastra para monitorear la calidad del agente sobre un conjunto de prueba representativo a medida que iteras. Despliega en Vercel, en tu propia infraestructura o en cualquier host Node.js.
import { createOpenAI } from "@ai-sdk/openai";
import { Agent } from "@mastra/core";
// Point Mastra at your Ertas-trained model served via Ollama
const ertas = createOpenAI({
baseURL: "http://localhost:11434/v1",
apiKey: "not-needed",
});
const supportAgent = new Agent({
name: "support-agent",
instructions: "You are a customer support agent for an enterprise SaaS platform.",
model: ertas("ertas-support-7b"),
tools: {
lookupCustomer: {
description: "Look up customer details by ID",
parameters: z.object({ customerId: z.string() }),
execute: async ({ customerId }) => {
return await db.customers.findById(customerId);
},
},
},
});
const result = await supportAgent.generate({
messages: [{ role: "user", content: "What's the status of my account?" }],
});
console.log(result.text);Benefits
- Nativo en TypeScript: envia agentes directamente a aplicaciones web, edge functions y servicios Node.js
- Integracion de primera clase con el Vercel AI SDK y mas de 3.300 modelos soportados, incluidos modelos locales entrenados con Ertas
- Orquestacion de flujos de trabajo, memoria persistente y evaluaciones estructuradas integradas
- Logging listo para produccion, observabilidad y puntos de control con humano en el bucle
- Despliega en el edge de Vercel o en cualquier infraestructura Node.js sin barreras de lenguaje
- Ecosistema activo y en crecimiento de agentes en TypeScript con una comunidad open-source solida
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Fine-Tune AI Models Without Writing Code
Running AI Models Locally: The Complete Guide to Local LLM Inference
CrewAI
LangChain
Ollama
Vercel AI SDK
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.