Bolt.new + Ertas
Despliega modelos ajustados como el backend de IA para aplicaciones construidas con Bolt.new, reemplazando costosas llamadas API en la nube con inferencia local que escala sin costos por token.
Overview
Bolt.new ha transformado como los desarrolladores construyen aplicaciones full-stack al permitirles describir una app en lenguaje natural y recibir un proyecto completo y desplegable en minutos. Desde dashboards SaaS hasta herramientas internas, Bolt.new genera componentes frontend, rutas de API backend, esquemas de base de datos y configuraciones de despliegue — comprimiendo dramaticamente el tiempo desde el concepto hasta el prototipo funcional. Se ha convertido en la herramienta preferida para desarrolladores independientes, equipos de hackathon y agencias que necesitan enviar MVPs rapido.
Las funciones de IA integradas en las aplicaciones generadas por Bolt casi siempre dependen de proveedores de API en la nube como OpenAI o Anthropic. Cada interfaz de chat, generador de contenido o funcion inteligente en una app construida con Bolt envia solicitudes a estos servicios externos, acumulando cargos por token que crecen linealmente con la adopcion de usuarios. Para desarrolladores independientes lanzando un producto, esto crea una dinamica incomoda: mientras mas exitosa se vuelve la app, mas insostenibles son los costos de IA. Un chatbot manejando 10,000 conversaciones por mes puede facilmente consumir todos los ingresos de un producto en etapa temprana solo en tarifas de API.
How Ertas Integrates
Ertas resuelve el problema de escalado de costos al permitirte ajustar un modelo especificamente para el caso de uso de tu aplicacion y desplegarlo en tu propia infraestructura. En lugar de pagar por un modelo de proposito general para manejar la tarea estrecha de tu app — ya sea responder preguntas sobre tu producto, generar formatos de contenido especificos o clasificar entradas de usuarios — entrenas un modelo mas pequeno y especializado que realiza la misma tarea a una fraccion del costo computacional. Ertas Studio maneja todo el pipeline de entrenamiento, desde la preparacion del dataset hasta el seguimiento de experimentos y la exportacion GGUF.
El cambio en un codigo base generado por Bolt es minimo. Bolt tipicamente construye funciones de IA usando el SDK de OpenAI o llamadas fetch directas al endpoint de chat completions. Dado que Ollama expone una API identica, solo necesitas cambiar la URL base en tu configuracion de entorno — de https://api.openai.com/v1 a http://localhost:11434/v1 — y actualizar el nombre del modelo. No se requieren cambios en el formato de solicitudes, parseo de respuestas o logica de streaming. Tu app construida con Bolt continua funcionando exactamente como antes, pero la inferencia ahora se ejecuta en hardware que tu controlas a un costo fijo.
Getting Started
- 1
Identifica la tarea de IA en tu app construida con Bolt
Determina que hace realmente la funcion de IA de tu aplicacion — respuestas de chat, generacion de contenido, clasificacion, resumen — y recopila ejemplos representativos de entrada-salida que definan el comportamiento esperado.
- 2
Ajusta un modelo especifico para la tarea en Ertas Studio
Sube tus ejemplos como dataset de entrenamiento, selecciona un modelo base de tamano apropiado para la complejidad de tu tarea y ejecuta un trabajo de fine-tuning. Un modelo enfocado de 7B u 8B parametros a menudo iguala la calidad de APIs en la nube para tareas estrechas.
- 3
Despliega el modelo con Ollama
Exporta el modelo entrenado como GGUF, despliegalo con Ollama y verifica que la inferencia funcione correctamente. Prueba con los mismos prompts que tu app Bolt envia para confirmar compatibilidad de formato de respuesta.
- 4
Actualiza la configuracion del endpoint de la app Bolt
Cambia la URL base de la API en tu codigo generado por Bolt del proveedor en la nube a tu direccion de Ollama. Actualiza el nombre del modelo en tus variables de entorno. No se necesitan otros cambios de codigo ya que Ollama usa el mismo formato de API.
- 5
Despliega y monitorea en produccion
Despliega tu app Bolt actualizada con el backend de inferencia local. Monitorea la latencia de respuesta y calidad a traves del dashboard de Ertas Cloud, y escala tu servidor de inferencia independientemente de tu servidor de aplicacion a medida que el trafico crece.
Benefits
- Desacopla los costos de IA del crecimiento de usuarios — los costos de inferencia permanecen fijos sin importar cuantos usuarios adopten tu app
- Modelos mas pequenos ajustados igualan la calidad de APIs en la nube para tareas enfocadas a una fraccion del computo
- Reemplazo directo que requiere solo un cambio de URL base en tu codigo generado por Bolt
- Sin dependencia de proveedores de IA en la nube — cambia modelos o proveedores sin cambios en la aplicacion
- Los datos de usuarios permanecen en tu infraestructura en lugar de enviarse a proveedores de API de terceros
- Costo mensual de infraestructura predecible que hace viable la economia unitaria para productos en etapa temprana
Related Resources
Fine-Tuning
GGUF
Inference
Your Vibe-Coded App Hit 10K Users. Now Your AI Bill Is $3K/Month.
Self-Hosted AI for Indie Apps: Replace GPT-4 with Your Own Model
Cursor
Ollama
Ertas for SaaS Product Teams
Ertas for Indie Developers & Vibe-Coded Apps
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.