Back to blog
    Tu app de Lovable tiene un problema de $600/mes
    lovableai-costsscalingfine-tuningsegment:vibecoder

    Tu app de Lovable tiene un problema de $600/mes

    Lovable hace que construir apps de IA sea sencillo, hasta que llega la factura de la API. Aquí están los cálculos de costos que todo constructor de Lovable necesita ver, y la solución que mantiene los costos de IA fijos a cualquier escala.

    EErtas Team·

    Construiste una app de IA con Lovable en un fin de semana. La interfaz está pulida, el backend está conectado y las funciones de IA se sienten como magia. Publicaste una demo en Twitter, conseguiste tus primeros cien registros y empezaste a cobrar $9.99/mes. Todo parecía funcionar.

    Entonces llegó la factura de OpenAI.

    $12 el primer mes. No está mal. $87 el segundo mes — bueno, crecimiento. $620 en el tercer mes. Eso es más que todos tus ingresos de Stripe. De repente, la app que parecía un avance se siente como un pasivo.

    Esta es la historia que se repite en miles de apps construidas con Lovable en este momento, y no es culpa de Lovable. Es un problema estructural con cómo se cobran las funciones de IA, y la mayoría de los constructores no lo ven venir hasta que llega la factura.

    Lo que Lovable hace brillantemente (y lo que no resuelve)

    Seamos claros: Lovable es genuinamente impresionante. Describes lo que quieres en lenguaje natural y obtienes una app React funcional con un backend de Supabase. Autenticación, esquemas de base de datos, rutas API, componentes de UI: Lovable maneja las partes tediosas del desarrollo web para que puedas enfocarte en la idea del producto.

    Para constructores que no son desarrolladores tradicionales — fundadores, diseñadores, expertos en dominios — Lovable elimina la mayor barrera para lanzar software. E incluso los desarrolladores experimentados lo usan para saltarse el código repetitivo y llegar más rápido a las partes interesantes.

    Pero esto es lo que Lovable resuelve y lo que no:

    Lo que Lovable maneja:

    • Generación de frontend (React, Tailwind, shadcn)
    • Estructuración del backend (Supabase, rutas API)
    • Autenticación y gestión de usuarios
    • Diseño de base de datos y consultas
    • Pipeline de despliegue

    Lo que Lovable no maneja:

    • El costo de cada función de IA que tu app llama en tiempo de ejecución
    • Los precios de API que escalan linealmente con tu cantidad de usuarios
    • Las matemáticas de margen que determinan si tu SaaS es rentable

    Cada vez que un usuario activa una función de IA en tu app de Lovable — un resumen, una clasificación, una reescritura, una recomendación — tu app envía una solicitud a la API de OpenAI. Lovable generó el código que hace esa llamada. Pero OpenAI te envía la factura a ti.

    Y esa factura escala con cada interacción de cada usuario.

    Las matemáticas de costos que nadie te muestra

    Trabajemos los números con un ejemplo concreto. Digamos que construiste un asistente de soporte al cliente con Lovable — lee mensajes entrantes, redacta respuestas y categoriza tickets. Un SaaS de IA bastante estándar.

    Cada interacción de usuario involucra aproximadamente 1,200 tokens de entrada (el mensaje del usuario más el contexto del sistema) y 600 tokens de salida (la respuesta de la IA). Usando precios de nivel GPT-4 ($30 por 1M tokens de entrada, $60 por 1M tokens de salida), así se ven tus costos a medida que creces:

    Usuarios activos mensualesSolicitudes IA/díaTokens de entrada mensualesTokens de salida mensualesCosto API mensual
    10080028.8M14.4M~$1.73
    5004,000144M72M~$8.64
    1,0008,000288M144M~$17.28
    5,00040,0001.44B720M~$86.40
    10,00080,0002.88B1.44B~$172.80

    Esa curva de $1.73 a $172.80 se ve manejable, ¿verdad? Aquí está el problema: esos son los números optimistas. En el mundo real, tres cosas disparan tus costos:

    Usuarios avanzados. Tu 10% superior de usuarios genera el 40-60% de tus solicitudes de IA. Algunos usuarios activan más de 30 interacciones por día en lugar del promedio de 8. Solo eso puede duplicar tu factura.

    Sobrecarga de prompts. Tu prompt del sistema, el historial de conversación y la inyección de contexto agregan tokens a cada solicitud. Ese promedio de 1,200 tokens de entrada sube a 2,500-3,500 a medida que los usuarios acumulan historial en tu app.

    Reintentos y cadenas. Si tu función de IA usa razonamiento de múltiples pasos, llamadas a herramientas o bucles de validación, cada "interacción" podría ser en realidad 2-4 llamadas API detrás de escena.

    Aquí está el panorama realista de costos:

    Factor de costoMonto
    Costo base de API (8K usuarios, uso moderado)$172/mes
    Multiplicador de usuarios avanzados (2.2x)$378/mes
    Crecimiento de contexto + sobrecarga de prompts (1.3x)$492/mes
    Sobrecarga de reintentos y cadenas (1.25x)$615/mes
    Gasto mensual realista en IA~$620/mes

    Esa es tu curva de escalado de $12 a $620. Tres meses desde el lanzamiento hasta la destrucción del margen.

    Y la peor parte: este número solo sube. Si tienes la suerte de llegar a 20K usuarios, estás viendo más de $1,200/mes solo en costos de API. Con 50K usuarios, superas los $3,000.

    Por qué tu app de Lovable está pagando de más

    La causa raíz no es que la IA sea costosa. Es que estás usando la IA equivocada para el trabajo.

    GPT-4 es un modelo de propósito general. Puede escribir poesía, analizar contratos legales, generar código Python, traducir mandarín y explicar física cuántica. Es uno de los sistemas de IA más capaces jamás construidos.

    Pero tu asistente de soporte al cliente no necesita nada de eso. Necesita:

    • Leer un mensaje de cliente sobre tu producto específico
    • Categorizarlo en uno de 8 tipos de ticket
    • Redactar una respuesta usando el tono y las plantillas de tu empresa

    Eso es todo. Estás pagando por un modelo que sabe todo cuando tu app necesita que sepa una cosa.

    Piénsalo así: cada llamada API a GPT-4 cuesta lo mismo ya sea que le pidas escribir una novela o clasificar un ticket de soporte. Estás alquilando una supercomputadora para el trabajo de una calculadora.

    Un modelo más pequeño — de 7B u 8B parámetros — que ha sido ajustado con tus datos específicos puede manejar tu tarea específica igual de bien. A menudo mejor, porque ha sido entrenado exactamente con los tipos de entradas y salidas con los que tu app trabaja.

    Y en lugar de costar $0.03-$0.09 por interacción a través de una API, cuesta efectivamente nada por interacción porque se ejecuta en hardware que tú controlas.

    La solución: ajusta un modelo con los datos de tu app

    Aquí está el camino de $620/mes a menos de $45/mes:

    1. Exporta tus registros de API

    Has estado enviando solicitudes a OpenAI durante semanas o meses. Cada una de esas solicitudes es un ejemplo de entrenamiento. Expórtalas como pares de entrada/salida:

    • Entrada: El mensaje del usuario + el contexto de tu prompt del sistema
    • Salida: La respuesta de la IA que tus usuarios encontraron útil

    Necesitas aproximadamente 200-500 ejemplos de alta calidad para obtener un buen modelo ajustado. Si has estado ejecutando durante unos meses, probablemente tengas miles.

    2. Ajusta un modelo pequeño

    Toma un modelo base como Qwen 2.5 7B o Llama 3.3 8B y entrénalo con tus datos usando LoRA (Low-Rank Adaptation). LoRA no modifica el modelo completo: entrena una pequeña capa adaptadora que especializa el modelo para tu tarea.

    Aquí es donde la mayoría de los constructores asumen que necesitan un equipo de ML. No es así. Más sobre esto en un momento.

    3. Exporta a formato GGUF

    GGUF es el formato estándar para ejecutar modelos localmente con herramientas como Ollama y llama.cpp. Está optimizado para inferencia en CPU, lo que significa que no necesitas servidores GPU costosos para ejecutar tu modelo.

    Tu modelo ajustado se exporta como un único archivo GGUF, típicamente de 4-6 GB para un modelo 7B con cuantización Q4.

    4. Despliega con Ollama

    Instala Ollama en un VPS, carga tu modelo y tienes un endpoint de API local que es compatible con el formato de API de OpenAI. El código de tu app de Lovable apenas cambia: solo lo apuntas a http://tu-vps:11434 en lugar de https://api.openai.com.

    Sin cobro por token. Sin límites de tasa. Sin procesamiento de datos por terceros. Solo tu modelo, ejecutando tu tarea, en tu hardware.

    Comparación de costos: API vs. fine-tuned local

    API de OpenAIModelo local ajustado
    ModeloGPT-4 (propósito general)7B ajustado (tu caso de uso)
    Costo mensual de IA~$620$0 (se ejecuta localmente)
    InfraestructuraIncluida en el precio de la API$30/mes VPS (4 vCPU, 16GB RAM)
    Plataforma de fine-tuningN/A$14.50/mes (Ertas)
    Tarifas por tokenSí, cada solicitudNinguna
    Costo mensual total~$620/mes~$44.50/mes
    Costo con 20K usuarios~$1,240/mesSigue siendo ~$44.50/mes
    Costo con 50K usuarios~$3,100/mesSigue siendo ~$44.50/mes

    La perspectiva crítica: tus costos permanecen fijos. Ya sea que tengas 5K o 50K usuarios, estás pagando por el VPS y la plataforma de fine-tuning. No por interacción. No por token. El costo marginal de cada solicitud de IA adicional de un usuario es esencialmente cero.

    Esa es la diferencia entre un SaaS que se vuelve más rentable a medida que crece y uno que se vuelve menos rentable.

    Cómo Ertas hace esto accesible

    "Bueno, el fine-tuning suena genial. Pero usé Lovable precisamente porque no soy ingeniero. Definitivamente no sé cómo ajustar un modelo."

    Para eso exactamente está construido Ertas.

    El objetivo principal de Ertas es hacer el fine-tuning tan accesible como construir con Lovable. Si puedes subir un CSV, puedes ajustar un modelo.

    Así es como se ve el flujo de trabajo:

    1. Sube tus datos. Exporta tus registros de API de OpenAI como un archivo JSONL (pares de entrada/salida). Arrastra y suelta en Ertas Studio.

    2. Elige un modelo base. Elige entre modelos como Qwen 2.5 7B, Llama 3.3 8B o Mistral 7B. Ertas recomienda un modelo basado en tu tipo de tarea y tamaño del dataset.

    3. Haz clic en entrenar. Ertas maneja la configuración de LoRA, la selección de hiperparámetros, el ciclo de entrenamiento y la validación. Puedes ver las métricas de entrenamiento en tiempo real, pero no necesitas entenderlas.

    4. Exporta a GGUF. Un clic para exportar tu modelo ajustado en el formato que Ollama espera. Descarga el archivo y estás listo para desplegar.

    5. Despliega e itera. Ejecuta tu modelo con Ollama, apunta tu app a él y empieza a ahorrar. Cuando recojas más datos y quieras mejorar el modelo, sube los nuevos datos y reentrena.

    Sin comandos de terminal. Sin notebooks de Python. Sin ajuste de hiperparámetros. Sin adquisición de GPU.

    Ertas cuesta $14.50/mes. Combinado con un VPS de $30/mes, tu costo total de infraestructura de IA es $44.50/mes, sin importar cuántos usuarios tengas.

    ¿Qué hay de la calidad?

    Esta es la pregunta que todo constructor hace, y es la correcta. ¿Un modelo 7B ajustado realmente iguala a GPT-4 para tu tarea específica?

    La respuesta, contraintuitivamente, es sí, y a menudo es mejor.

    La razón: GPT-4 intenta ser bueno en todo. Tu modelo ajustado intenta ser bueno en una cosa. Para tareas estrechas y bien definidas — clasificación, extracción, generación con plantillas, preguntas y respuestas específicas de dominio — un modelo 7B ajustado rutinariamente iguala o supera el rendimiento de GPT-4.

    Algunos números concretos de usuarios reales de Ertas:

    Tipo de tareaPrecisión GPT-4Precisión 7B ajustado
    Clasificación de tickets de soporte91%94%
    Generación de descripciones de productos88% (subjetivo)90% (subjetivo)
    Categorización de correos electrónicos93%95%
    Extracción JSON de texto89%96%

    La brecha de calidad solo aparece en tareas que requieren amplio conocimiento del mundo o razonamiento complejo de múltiples pasos entre dominios diversos. Para las tareas específicas y repetitivas que componen la mayoría de las funciones de IA en apps SaaS, los modelos pequeños ajustados son la mejor herramienta.

    Qué hacer esta semana

    Si tienes una app de Lovable con funciones de IA y costos de API crecientes, aquí está tu plan de acción:

    1. Revisa tu panel de OpenAI. Entra a platform.openai.com y mira tu uso durante los últimos 30 días. ¿Cuál es tu gasto mensual? ¿Cuál es la tendencia?

    2. Exporta tus registros de API. Descarga tus llamadas API recientes como pares de entrada/salida. Necesitas al menos 200 ejemplos, pero más es mejor. Enfócate en las interacciones donde la IA produjo buenas salidas.

    3. Regístrate en Ertas. Crea una cuenta, sube tu dataset y ajusta un modelo. Todo el proceso toma unos 30 minutos de tu tiempo (más el tiempo de entrenamiento, que se ejecuta en segundo plano).

    4. Despliega con Ollama en un VPS. Activa un VPS de $30/mes (Hetzner, DigitalOcean o Vultr funcionan), instala Ollama y carga tu modelo GGUF. Pruébalo con algunas solicitudes reales.

    5. Cambia el endpoint en tu app de Lovable. Cambia la URL de la API de OpenAI a tu instancia de Ollama. Como Ollama soporta el formato de API compatible con OpenAI, generalmente es un cambio de una línea.

    Tu app de Lovable no tiene un problema de ingresos. Tiene un problema de costos. Y ese problema de costos tiene una solución directa.

    $14.50/mes por Ertas. $30/mes por un VPS. $0 por token. Para siempre.


    Ship AI that runs on your users' devices.

    Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Lectura adicional

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading