Vercel AI SDK + Ertas
Construye funciones de IA con el Vercel AI SDK: un SDK orientado a TypeScript con una interfaz unificada a traves de 94 proveedores, UI con streaming, salida estructurada, llamadas a herramientas y soporte completo para modelos locales ajustados.
Overview
El Vercel AI SDK es el SDK de TypeScript dominante para construir aplicaciones impulsadas por IA, con soporte para mas de 3.300 modelos de 94 proveedores a marzo de 2026. Su propuesta de valor central es la ergonomia agnostica de proveedor: las mismas llamadas `generateText`, `streamText`, `generateObject` y `streamObject` funcionan con OpenAI, Anthropic, Google, Mistral, Hugging Face, modelos locales de Ollama y cualquier proveedor personalizado que configures. Esto hace trivial cambiar entre modelos para optimizacion de costos, pruebas A/B o patrones de respaldo sin modificar el codigo de la aplicacion.
Mas alla de la interfaz unificada de proveedores, el AI SDK incluye primitivas de primera clase para los patrones que importan en produccion: componentes de UI con streaming para React, Vue y Svelte; validacion de salida estructurada via Zod; llamadas a herramientas con ejecucion paralela integradas; y patrones de flujos de trabajo durables a traves del Vercel Workflow DevKit. El SDK es la base sobre la que se construye Mastra (el framework de agentes para produccion) y se usa ampliamente de forma directa para casos mas simples de chat y completion. Para equipos TypeScript, es efectivamente la capa de infraestructura por defecto para funciones de IA.
How Ertas Integrates
Los modelos entrenados con Ertas se integran con el Vercel AI SDK a traves del proveedor oficial compatible con OpenAI. Despues de ajustar tu modelo en Ertas Studio y desplegarlo en un endpoint compatible con OpenAI (Ollama, vLLM o Ertas Cloud), creas un proveedor personalizado con `createOpenAI` apuntando a la URL base de tu endpoint. A partir de ese momento, todas las funciones del Vercel AI SDK — streaming, salida estructurada, llamadas a herramientas, entrada multimodal, bucles de agente via Mastra — funcionan de forma transparente con tu modelo ajustado.
La combinacion brilla para productos de IA nativos en TypeScript. Aplicaciones web, apps Next.js, edge functions y servicios Node.js pueden usar modelos entrenados con Ertas directamente sin tender un puente a Python, eliminando un punto de dolor comun en arquitecturas de IA multilenguaje. Para aplicaciones alojadas en Vercel, el soporte de runtime edge del AI SDK permite inferencia global de baja latencia cuando se combina con las opciones de despliegue regional de Ertas Cloud. Para aplicaciones autoalojadas, las mismas rutas de codigo funcionan contra un endpoint Ollama o vLLM en tu propia infraestructura sin cambios a nivel de aplicacion.
Getting Started
- 1
Ajusta tu modelo en Ertas Studio
Entrena un modelo especifico del dominio sobre tus datos. El modelo ajustado captura el vocabulario, los patrones y las convenciones de uso de herramientas del dominio para usarlo en todas tus funciones de IA.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve via Ollama, vLLM o Ertas Cloud. El AI SDK funciona con cualquier endpoint que exponga la API estandar /v1/chat/completions.
- 3
Instala el Vercel AI SDK
Instala ai (el SDK central) y @ai-sdk/openai (el proveedor compatible con OpenAI). La misma instalacion da soporte a todas las funciones estandar del AI SDK.
- 4
Crea un proveedor personalizado para tu endpoint de Ertas
Usa createOpenAI con la URL base de tu endpoint. El proveedor resultante funciona con las APIs generateText, streamText, generateObject y de llamadas a herramientas.
- 5
Construye UI con streaming, agentes o salidas estructuradas
Usa los componentes de React del AI SDK para chat con streaming, salidas estructuradas validadas con Zod, o agentes con llamadas a herramientas en paralelo, todo respaldado por tu modelo entrenado con Ertas.
import { createOpenAI } from "@ai-sdk/openai";
import { generateObject, streamText } from "ai";
import { z } from "zod";
// Create a provider pointed at your Ertas-trained model
const ertas = createOpenAI({
baseURL: "http://localhost:11434/v1",
apiKey: "not-needed",
});
// Streaming chat
const stream = streamText({
model: ertas("ertas-support-7b"),
messages: [{ role: "user", content: "How do I cancel my subscription?" }],
});
for await (const chunk of stream.textStream) {
process.stdout.write(chunk);
}
// Structured output with Zod validation
const ticket = await generateObject({
model: ertas("ertas-support-7b"),
schema: z.object({
category: z.enum(["billing", "technical", "account"]),
priority: z.enum(["low", "medium", "high"]),
summary: z.string(),
suggestedAction: z.string(),
}),
prompt: "Classify this support email: [email body here]",
});
console.log(ticket.object); // Type-safe, validatedBenefits
- Interfaz unificada en TypeScript: el mismo codigo funciona con mas de 3.300 modelos de 94 proveedores
- Primitivas de UI con streaming de primera clase para React, Vue, Svelte y SolidJS
- Salida estructurada via esquemas Zod: salidas agenticas con tipado seguro y sin parseo manual
- Llamadas a herramientas en paralelo integradas con tipado fuerte de extremo a extremo
- Base para el framework de agentes Mastra y para el Vercel Workflow DevKit
- El soporte de runtime edge habilita patrones de despliegue de inferencia global de baja latencia
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Fine-Tune AI Models Without Writing Code
Running AI Models Locally: The Complete Guide to Local LLM Inference
Letta
Mastra
Ollama
OpenRouter
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.