
El Stack de AI del Vibecoder: Lovable + n8n + Ertas + Ollama
El stack tecnológico completo de 2026 para constructores que quieren apps con AI sin precios por token. Construye con Lovable, automatiza con n8n, ajusta con Ertas, despliega con Ollama.
En 2025, el stack del vibecoder era simple: Cursor + API de OpenAI + Vercel. Podías lanzar un SaaS completo con AI en un fin de semana. El problema era lo que pasaba el lunes — específicamente, el lunes cuando llegaba tu factura de OpenAI y te dabas cuenta de que tus márgenes se habían evaporado.
En 2026, los constructores inteligentes están usando un stack diferente. Siguen lanzando rápido. Siguen usando herramientas de codificación asistidas por AI. Pero han agregado tres capas que convierten "demo genial con problema de escala" en "producto rentable con costos fijos." El stack es Lovable para el frontend, n8n para automatización, Ertas para fine-tuning y Ollama para inferencia. Desglosemos por qué existe cada capa y cómo se conectan.
El Stack 2025 vs El Stack 2026
Esto es lo que cambió y por qué:
| Capa | Stack 2025 | Stack 2026 | Por Qué Cambió |
|---|---|---|---|
| Construir | Cursor / Replit | Lovable / Bolt.new / Cursor | Los constructores de apps AI-nativos maduraron |
| Inferencia AI | API OpenAI / API Anthropic | Ollama (local) | Los costos por token mataban los márgenes |
| Modelo AI | GPT-4 / Claude (genérico) | Qwen/Llama ajustado (personalizado) | Los modelos genéricos son excesivos para tareas estrechas |
| Entrenamiento de Modelo | No aplicable | Ertas | El fine-tuning se volvió accesible para devs no-ML |
| Automatización | Zapier / Make | n8n (auto-hospedado) | Auto-hospedado = sin tarifas por tarea + privacidad |
| Hosting | Vercel / Netlify | Vercel + VPS (Hetzner/DO) | VPS necesario para inferencia Ollama |
| Costo mensual a 5K usuarios | $200-800 en tarifas de API | $30-45 fijo | Reducción del 85-95% |
El stack 2025 optimizaba para velocidad de lanzamiento. El stack 2026 optimiza para velocidad de lanzamiento Y rentabilidad a escala. No tienes que sacrificar uno por el otro.
Capa 1: Construir — Lovable, Bolt.new y Cursor
La capa de construcción es donde tu app toma forma. En 2026, tienes tres opciones serias, y no son intercambiables.
Lovable es la elección cuando quieres una app web completa y desplegada a partir de una descripción en lenguaje natural. Describes lo que quieres, Lovable genera el stack completo — frontend, backend, base de datos, autenticación — y lo despliega. La ventaja clave es velocidad: puedes tener una app funcional con autenticación de usuario y base de datos en menos de una hora. La compensación es que trabajas dentro de las opiniones arquitectónicas de Lovable. Para la mayoría de las apps SaaS, esas opiniones están bien.
Bolt.new ocupa un espacio similar a Lovable pero te da más control sobre el stack. Es mejor cuando tienes requisitos técnicos específicos — una base de datos particular, un proveedor de auth específico, un framework de backend que prefieres. Es ligeramente más lento que Lovable para la construcción inicial pero más flexible para personalización.
Cursor es la herramienta potente. No es un constructor de apps — es un editor de código potenciado por AI. Tú escribes (o generas) cada línea de código, con el AI de Cursor como copiloto. La ventaja es control total. La desventaja es que el control total toma más tiempo. Usa Cursor cuando estés construyendo algo arquitectónicamente complejo o cuando necesites desviarte significativamente de los patrones SaaS estándar.
La elección pragmática para la mayoría de los vibecoders: Comienza con Lovable o Bolt.new para la construcción inicial, luego usa Cursor para personalización y desarrollo continuo. Obtienes la velocidad de los constructores AI-nativos para el 80% que es estándar, y la precisión de un editor de código para el 20% que es personalizado.
Capa 2: Automatizar — n8n
Cada app con AI tiene flujos de trabajo que suceden detrás de escena. El usuario se registra, envía un email de bienvenida y crea un espacio de trabajo. El usuario sube un documento, procésalo con AI y almacena los resultados. El usuario activa una exportación, genera el archivo y envíalo por email.
En 2025, la mayoría de los vibecoders usaban Zapier o Make para esto. Ambos funcionan, pero ambos tienen problemas a escala:
- Zapier cobra por tarea. A 5,000 tareas/mes, estás pagando $73/mes. A 50,000 tareas/mes, son $448/mes. Estos costos se acumulan rápido.
- Make es más barato pero sigue con precios por operación. Y ambos envían tus datos a través de servidores de terceros.
n8n es la respuesta de 2026. Es una herramienta de automatización de flujos de trabajo open-source que auto-hospedas. Las ventajas:
- Cero tarifas por tarea. Ejecuta 5,000 o 500,000 flujos de trabajo por mes — mismo costo: los $5-10/mes del VPS donde corre.
- Los datos se quedan en tu infraestructura. Esto importa para RGPD, HIPAA, o simplemente confianza básica del usuario.
- Nodos nativos de AI. n8n tiene nodos incorporados para Ollama, OpenAI y otros proveedores de AI. Esto significa que tus flujos de trabajo de automatización pueden llamar a tu modelo local ajustado directamente.
- Auto-hospedado = control total. Ningún proveedor puede depreciar una función de la que dependes o cambiar precios.
El punto de integración crítico: n8n puede llamar a tu instancia local de Ollama directamente. Esto significa que tus flujos de trabajo con AI (procesamiento de documentos, generación de contenido, clasificación, extracción) corren en tu modelo ajustado con cero costo por token.
Una configuración típica de n8n para una app con AI:
Acción del usuario → Disparador webhook → Flujo n8n → Inferencia Ollama → Actualización BD → Notificación al usuario
Todo esto corre en tu infraestructura. El costo por ejecución es efectivamente cero.
Capa 3: Fine-Tune — Ertas
Esta es la capa que no existía para vibecoders en 2025. El fine-tuning era algo que los ingenieros de ML hacían con scripts de PyTorch y GPUs alquiladas. Requería entender loops de entrenamiento, hiperparámetros, formateo de datasets y cuantización. La mayoría de los desarrolladores indie nunca se molestaron.
Ertas cambió eso. Así se ve el flujo de trabajo de fine-tuning para un desarrollador no-ML:
- Recopila tus datos. Registra las entradas y salidas de tus funciones de AI. Si has estado usando la API de OpenAI, ya tienes estos datos en tus logs de API. Expórtalos como JSONL.
- Sube a Ertas. La plataforma valida tus datos, señala problemas de calidad y te muestra estadísticas sobre tu dataset.
- Selecciona un modelo base. Para la mayoría de los casos de uso de apps, Qwen 2.5 7B es el punto ideal. Suficientemente grande para tareas con matices, suficientemente pequeño para correr en un VPS de $30/mes.
- Entrena. Haz clic en iniciar. El fine-tuning con LoRA en 500-2,000 ejemplos toma 20-60 minutos. Observas la curva de pérdida en tiempo real.
- Evalúa. Prueba tu modelo contra entradas de muestra en la interfaz de Ertas. Compara con respuestas de GPT-4.
- Exporta. Descarga como GGUF para despliegue en Ollama.
Todo el proceso toma menos de un día, incluyendo la preparación de datos. Ertas cuesta $14.50/mes, y eso incluye ejecuciones de entrenamiento ilimitadas.
Por qué importa el fine-tuning para el stack: Un modelo 7B ajustado corriendo localmente en Ollama igualará o superará a GPT-4 para tu caso de uso específico. No para todo — solo para las tareas estrechas que tu app realmente realiza. Y eso es lo único que importa.
La brecha de rendimiento entre "modelo frontier genérico" y "modelo pequeño ajustado" para tareas estrechas es uno de los hechos más subestimados en el desarrollo de AI. Un modelo 7B entrenado con 1,000 ejemplos de tu tarea específica manejará el 90-95% de las solicitudes tan bien como GPT-4, a cero costo por token.
Capa 4: Desplegar — Ollama
Ollama es la capa de runtime. Toma tu modelo ajustado (exportado desde Ertas como archivo GGUF) y lo sirve como API local. Sin nube. Sin tokens. Sin facturación por solicitud.
Configurar Ollama en un VPS toma cinco minutos:
# Install Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Load your fine-tuned model
ollama create my-app-model -f Modelfile
# Test it
curl http://localhost:11434/api/generate -d '{
"model": "my-app-model",
"prompt": "test input",
"stream": false
}'
Ollama expone una API compatible con OpenAI, lo que significa que cambiar de OpenAI a tu modelo local en el código de tu app frecuentemente es un cambio de una línea — solo actualiza la URL base.
Requisitos de hardware para un modelo 7B:
| Especificación VPS | Proveedor | Costo Mensual | Rendimiento |
|---|---|---|---|
| 4 vCPU, 8GB RAM | Hetzner CX32 | ~$14/mes | 10-15 tokens/seg |
| 4 vCPU, 16GB RAM | Hetzner CX42 | ~$26/mes | 15-25 tokens/seg |
| 8 vCPU, 16GB RAM | DigitalOcean | ~$48/mes | 20-30 tokens/seg |
| GPU (RTX 3060) | Vast.ai | ~$30/mes | 40-60 tokens/seg |
Para la mayoría de las apps indie, un VPS de Hetzner de $26/mes es más que suficiente. Maneja 15-25 tokens por segundo, lo que se traduce en aproximadamente 50-100 conversaciones concurrentes sin latencia notable.
Cómo Se Conectan las Capas
Aquí está la arquitectura para una app completa con AI construida en este stack:
┌─────────────────────────────────────────────┐
│ App Lovable / Bolt.new (Frontend + API) │
│ Hospedada en Vercel / Railway │
└──────────────────┬──────────────────────────┘
│
┌──────────┼──────────┐
│ │ │
▼ ▼ ▼
┌─────────┐ ┌──────┐ ┌────────┐
│ Base de │ │ n8n │ │ Ollama │
│ Datos │ │(auto)│ │ (VPS) │
│(Supabase│ │ │ │ │
│ /Neon) │ │ │ │ │
└─────────┘ └──┬───┘ └────────┘
│ ▲
└──────────┘
(n8n llama a Ollama
para flujos de AI)
┌─────────────────────────────────┐
│ Ertas (entrenamiento/updates) │
│ Exporta GGUF → Ollama │
└─────────────────────────────────┘
El flujo de datos para una función típica de AI:
- El usuario activa una acción en tu app Lovable (ej. "Resume este documento")
- La app envía la solicitud a tu instancia de Ollama (mismo VPS o adyacente)
- Ollama ejecuta inferencia en tu modelo ajustado
- La respuesta vuelve a la app en 500ms-2s
- Para flujos de trabajo asincrónicos (procesamiento de email, operaciones por lotes), n8n maneja la orquestación, llamando a Ollama cuando sea necesario
Para actualizaciones de modelo:
- Exporta nuevos logs de API / datos de interacción mensualmente
- Sube a Ertas, reentrena (20-40 minutos)
- Exporta GGUF actualizado
- Intercambia en caliente el modelo en tu VPS de Ollama (cero tiempo de inactividad con actualización progresiva)
Ejemplo del Mundo Real: SaaS de Escritura con AI
Hagámoslo concreto. Estás construyendo WriteFlow — un asistente de escritura con AI que ayuda a creadores de contenido a reescribir párrafos, generar titulares y coincidir con el tono de marca. Así se desarrolla cada capa:
Capa 1 (Construir): Usas Lovable para generar la app. Descríbela: "Una app web donde los usuarios pegan texto, seleccionan una transformación (reescribir, titular, coincidencia de tono) y obtienen resultados generados por AI. Incluye autenticación de usuarios, un historial de transformaciones pasadas y una página de configuración para descripciones de voz de marca guardadas." Lovable te da una app funcional en 45 minutos.
Capa 2 (Automatizar): Configura n8n para flujos de trabajo en segundo plano:
- Nuevo registro de usuario -> enviar email de bienvenida + crear perfil de voz de marca predeterminado
- Usuario alcanza límite diario -> enviar email de sugerencia de upgrade
- Resumen semanal -> resumir las estadísticas de uso de cada usuario y enviarlas por email
Capa 3 (Fine-tune): Después de tus primeros 100 usuarios, tienes más de 5,000 ejemplos de reescritura en tu base de datos (texto de entrada -> salida de AI, filtrados por casos donde los usuarios aceptaron el resultado). Sube a Ertas, ajusta Qwen 2.5 7B. El modelo resultante sobresale específicamente en las tres transformaciones que tu app ofrece.
Capa 4 (Desplegar): Exporta GGUF, despliega en un VPS de Hetzner de $26/mes. Actualiza tu app Lovable para apuntar al endpoint de Ollama en lugar de OpenAI.
Desglose de Costos Mensuales
Esto es lo que cuesta cada capa a diferentes escalas:
| Componente | 100 Usuarios | 1,000 Usuarios | 5,000 Usuarios | 10,000 Usuarios |
|---|---|---|---|---|
| Hosting Lovable/Vercel | $0 (tier gratuito) | $20/mes | $20/mes | $20/mes |
| Base de datos (Supabase) | $0 (tier gratuito) | $25/mes | $25/mes | $25/mes |
| VPS n8n | $6/mes | $6/mes | $12/mes | $12/mes |
| VPS Ollama | $14/mes | $26/mes | $26/mes | $48/mes |
| Ertas | $14.50/mes | $14.50/mes | $14.50/mes | $14.50/mes |
| Total | $34.50/mes | $91.50/mes | $97.50/mes | $119.50/mes |
Ahora compara eso con el stack dependiente de API:
| Componente | 100 Usuarios | 1,000 Usuarios | 5,000 Usuarios | 10,000 Usuarios |
|---|---|---|---|---|
| Hosting | $0 | $20/mes | $20/mes | $20/mes |
| Base de datos | $0 | $25/mes | $25/mes | $25/mes |
| Zapier | $20/mes | $73/mes | $73/mes | $448/mes |
| API OpenAI | $5/mes | $50/mes | $250/mes | $500/mes |
| Total | $25/mes | $168/mes | $368/mes | $993/mes |
A 100 usuarios, el stack 2026 es ligeramente más caro. A 1,000 usuarios, ya es más barato. A 10,000 usuarios, estás ahorrando $873/mes — más de $10,000/año. Y la brecha solo se amplía desde ahí porque el stack 2026 escala sub-linealmente mientras el stack de API escala linealmente.
El costo total de ejecutar un SaaS con AI a 10,000 usuarios baja de casi $1,000/mes a menos de $120/mes. Esa es la diferencia entre un proyecto personal que pierde dinero y un negocio rentable.
Comenzando Este Fin de Semana
No necesitas adoptar el stack completo de una vez. Aquí está el despliegue pragmático:
Fin de semana 1: Construir y lanzar.
- Usa Lovable o Bolt.new para construir tu app
- Usa la API de OpenAI para funciones de AI (es la forma más rápida de validar tu idea)
- Despliega en Vercel
- Lánzalo. Consigue usuarios. Valida la demanda.
Fin de semana 2: Agregar automatización.
- Levanta n8n en un VPS de $6/mes
- Migra tus flujos de trabajo de Zapier/Make (o constrúyelos desde cero en n8n)
- Conecta n8n a tu app vía webhooks
Fin de semana 3: Ajusta tu primer modelo.
- Exporta más de 500 pares de entrada/salida de tus logs de API de OpenAI
- Sube a Ertas, ajusta Qwen 2.5 7B
- Evalúa los resultados — asegúrate de que la calidad coincida con GPT-4 para tu caso de uso
Fin de semana 4: Ve local.
- Despliega Ollama en un VPS
- Carga tu modelo ajustado
- Cambia el endpoint de API en tu app
- Cancela (o reduce drásticamente) tu suscripción de API de OpenAI
Cuatro fines de semana. Cada uno es independientemente valioso — no necesitas comprometerte con el stack completo por adelantado. Pero al final del fin de semana cuatro, tienes una app con AI con costos de infraestructura fijos, cero tarifas por token y control total sobre tus modelos de AI.
Ese es el stack del vibecoder 2026. Construye rápido. Lanza rápido. Y realmente quédate con los ingresos.
Ship AI that runs on your users' devices.
Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Lectura Adicional
- Tu App Vibe-Coded Llegó a 10K Usuarios. Ahora Tu Factura de AI Es $3K/Mes. — Profundización en el precipicio de costos de AI que golpea a las apps vibe-coded a escala.
- AI Auto-Hospedado para Apps Indie — Por qué auto-hospedar inferencia de AI es la palanca de margen más grande para desarrolladores indie.
- Ejecutando Modelos de AI Localmente — Una guía práctica de inferencia local con Ollama y modelos GGUF.
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

The Vibecoder's Exit Strategy: From Platform Lock-In to Full Ownership
You built fast with AI tools and third-party APIs. Now you're locked into platforms you don't control. Here's how to take ownership of your AI stack before it's too late.

MCP + Fine-Tuned Local Model: Connect Claude to Your Domain-Specific AI
Model Context Protocol (MCP) lets Claude Desktop talk to any server — including your own Ollama-hosted fine-tuned model. Here's the architecture and setup for routing Claude requests to a custom domain model.

Claude Desktop + Local Fine-Tuned Model: Complete Setup Guide
Run your fine-tuned model locally, connect it to Claude Desktop via MCP, and get a zero-cost domain AI assistant inside the Claude interface. Full step-by-step setup.