Back to blog
    App No-Code en Bubble + IA Local: Lanza Funciones de IA Sin Facturas de API
    bubbleno-codeai-featureslocal-modelcost-reductionsegment:vibecoder

    App No-Code en Bubble + IA Local: Lanza Funciones de IA Sin Facturas de API

    El plugin de OpenAI y el conector API de Bubble generan costos por token a escala. Así es como se reemplazan con un modelo local ajustado usando la API compatible con OpenAI de Ollama.

    EErtas Team·

    Bubble es donde se construyen las apps no-code serias. Marketplaces multi-lado, herramientas SaaS complejas, productos de automatización de flujos de trabajo — Bubble maneja todo. Cuando agregas funciones de IA a una app de Bubble, típicamente usas el plugin de OpenAI o un conector API personalizado para llamar a Claude o GPT-4.

    Funcionan. El problema es lo que cuestan a escala, y las apps de Bubble a escala pueden golpear ese problema más rápido de lo que esperas porque los flujos de trabajo de Bubble se disparan por eventos — no solo por acciones del usuario.

    Cómo las Apps de Bubble Usan IA Hoy

    Hay tres patrones comunes para IA en Bubble:

    El Plugin de OpenAI es el punto de entrada más fácil. Instálalo, ingresa tu API key, y puedes llamar a modelos GPT desde cualquier flujo de trabajo de Bubble. Cada llamada del plugin es una solicitud directa a la API de OpenAI con facturación por token.

    El Conector API te permite llamar a cualquier API REST desde flujos de trabajo de Bubble. Los constructores que necesitan más control (headers personalizados, modelos específicos, streaming) configuran un conector a la API de OpenAI o Anthropic directamente. Igualmente por token.

    Los disparadores de flujos de trabajo de backend son donde los costos de IA de Bubble se vuelven no obvios. Los flujos de trabajo de Bubble se disparan por: creación de nuevos registros, disparadores programados, acciones de usuario, recepción de webhooks, cambios en la base de datos. Si cualquiera de estos dispara una llamada de IA, el costo se acumula basado en la frecuencia de disparos, no solo en el conteo de sesiones de usuario.

    El Problema de Costos de IA en Bubble

    Un ejemplo del mundo real: una app de CRM en Bubble que usa IA para auto-generar borradores de emails de seguimiento cuando se crea un nuevo lead. El flujo de trabajo se dispara en "Nuevo Lead Creado" y llama a OpenAI para generar un borrador.

    Con 50 nuevos leads por día: 50 llamadas x 700 tokens = 35,000 tokens/día = 1,050,000 tokens/mes = ~$2-20/mes (el costo depende del modelo).

    Escala el negocio a 500 leads/día: $20-200/mes. Escala a 5,000 leads/día: $200-2,000/mes.

    Ahora agrega un segundo flujo de IA (puntuación de calificación al ingresar el lead), un tercero (generación de resumen de reunión cuando se agrega una nota), y un cuarto (generación de reporte semanal). Cada uno multiplica el costo.

    Flujos de TrabajoDisparos/DíaCosto Mensual (gpt-4o-mini)Costo Mensual (gpt-4o)
    1 flujo de IA, 50 disparos50~$2~$30
    1 flujo de IA, 500 disparos500~$20~$300
    4 flujos de IA, 500 disparos2,000~$80~$1,200
    4 flujos de IA, 5,000 disparos20,000~$800~$12,000

    Por Qué los Constructores de Bubble Tienen una Ventaja

    Aquí está la buena noticia específica de Bubble: tu app ya llama APIs externas. Cambiar de la API de OpenAI a la API de un modelo local es un cambio de configuración, no un cambio de arquitectura.

    El Conector API de Bubble es genérico — llama a cualquier endpoint REST que configures. Ollama (la herramienta que sirve tu modelo GGUF ajustado localmente) expone una API REST compatible con OpenAI. Tus llamadas de IA en Bubble pueden redirigirse de api.openai.com a tu VPS con Ollama actualizando una URL en la configuración de tu Conector API.

    Sin cambio de código. Sin reconstrucción de flujos de trabajo. Un intercambio de URL.

    Arquitectura: Bubble, API Local Compatible con OpenAI

    Bubble Workflow
         ↓ (API Connector call)
    Your VPS (e.g., Hetzner, $14-26/mo)
         └── Ollama (serving fine-tuned GGUF)
              └── OpenAI-compatible endpoint: http://your-vps:11434/v1
         ↓ (response)
    Bubble continues workflow with AI output
    

    Configurando el Conector API de Ollama en Bubble

    1. Crea el Conector API en Bubble:

      • URL raíz de API: http://your-vps-ip:11434
      • Agrega una nueva API: "LocalAI"
    2. Agrega la llamada de chat completions:

      • Método: POST
      • Ruta: /v1/chat/completions
      • Headers: Content-Type: application/json
      • Body (JSON):
      {
        "model": "your-fine-tuned-model",
        "messages": [
          {"role": "system", "content": "Your system prompt"},
          {"role": "user", "content": "<dynamic_input>"}
        ],
        "temperature": 0.1
      }
      
    3. Mapea la respuesta:

      • Extrae: choices[0].message.content

    Esta es la misma estructura que la API de OpenAI. Si ya tienes un conector de OpenAI en Bubble, estás duplicándolo y cambiando la URL — 10-15 minutos de trabajo.

    Fine-Tuning para Casos de Uso de Bubble

    Las apps de Bubble comúnmente usan IA para estas tareas — todas excelentes candidatas para fine-tuning:

    Clasificación y puntuación: Calificación de leads, enrutamiento de tickets, moderación de contenido, clasificación de sentimiento. Estas son las tareas de fine-tuning con mayor ROI: un modelo de 7B entrenado con 400 ejemplos etiquetados alcanza 90-94% de precisión, a costo marginal cero por clasificación.

    Generación de contenido con plantillas: Emails de seguimiento, resúmenes de reuniones, generación de reportes, descripciones de productos. El fine-tuning captura tu formato específico, tono y vocabulario de dominio. La consistencia de las salidas mejora dramáticamente vs prompting genérico.

    Extracción de datos: Extraer datos estructurados de entradas de texto no estructurado (formularios de contacto, emails de soporte, cargas de documentos). El fine-tuning en pares (entrada, salida JSON) produce extracción estructurada altamente consistente.

    Transformación de texto: Resumen, reformateo, traducción dentro de un dominio. Para tareas con patrones consistentes de entrada/salida, los modelos ajustados igualan la calidad de GPT-4.

    Migración Paso a Paso

    Paso 1: Identifica tus flujos de trabajo de IA de mayor costo. Revisa tu dashboard de uso de OpenAI. ¿Qué flujo de trabajo genera más tokens? Ese es tu primer candidato de migración.

    Paso 2: Exporta datos de entrenamiento de la base de datos de Bubble. Tus salidas de IA probablemente están almacenadas en tu base de datos de Bubble (o deberían estarlo). Exporta 400-800 pares de entrada/salida como CSV, convierte a JSONL:

    {"instruction": "Generate a follow-up email for this lead:", "input": "Name: John Smith, Company: Acme, Inquiry: pricing for enterprise", "output": "Hi John, thank you for your interest in our enterprise plan..."}
    

    Paso 3: Ajusta en Ertas. Sube el JSONL, selecciona el modelo base (Qwen 2.5 7B para la mayoría de los casos de uso de Bubble), entrena, exporta GGUF.

    Paso 4: Despliega Ollama en un VPS. Hetzner CX32 ($14/mes) maneja un modelo de 7B ajustado para los patrones típicos de flujos de trabajo de Bubble (entradas cortas, salidas estructuradas). Carga tu archivo GGUF, inicia Ollama.

    Paso 5: Actualiza el Conector API de Bubble. Cambia la URL raíz de API. Prueba con un flujo de trabajo de ejemplo. Despliega.

    Costo Después de la Migración

    Disparos Diarios de IACosto Mensual (gpt-4o-mini)Costo Mensual (Local Ajustado)
    500~$20$40.50
    2,000~$80$40.50
    10,000~$400$40.50
    50,000~$2,000$40.50-66.50

    Punto de equilibrio contra gpt-4o-mini: alrededor de 2,000-2,500 disparos diarios. Contra gpt-4o: menos de 200 disparos diarios.


    Ship AI that runs on your users' devices.

    Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Lectura Adicional

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading