Make.com + Ertas

    Conecta escenarios de automatización de Make.com a modelos locales entrenados con Ertas en lugar de costosas APIs de IA en la nube, eliminando costos por token mientras mantienes intacta la lógica de tu flujo de trabajo existente.

    Overview

    Make.com (anteriormente Integromat) se ha establecido como la plataforma líder de automatización sin código, potenciando cientos de miles de escenarios en empresas de todos los tamaños. Las agencias de IA en particular dependen de Make.com para orquestar flujos de trabajo complejos — extrayendo datos de CRMs, procesando documentos, generando contenido y enviando resultados a herramientas posteriores. Su constructor visual de escenarios lo hace accesible para no desarrolladores, siendo lo suficientemente potente para automatizaciones sofisticadas de múltiples pasos que de otro modo requerirían código personalizado.

    El desafío para las agencias que ejecutan escenarios impulsados por IA a escala es el costo. Cada paso de IA en un escenario de Make.com típicamente llama a una API en la nube como OpenAI o Anthropic, incurriendo en cargos por token que se acumulan rápidamente a lo largo de cientos de ejecuciones diarias. Un solo escenario de generación de contenido procesando 500 solicitudes por día puede fácilmente acumular miles de dólares en tarifas mensuales de API. Peor aún, los límites de tasa de los proveedores en la nube pueden estrangular los escenarios de alto volumen durante las horas pico, causando retrasos en la ejecución y ejecuciones fallidas que requieren intervención manual.

    How Ertas Integrates

    Ertas cierra la brecha entre la automatización sin código y la IA rentable al permitirte entrenar modelos diseñados específicamente que se ejecutan en tu propia infraestructura. Usando Ertas Studio, ajustas un modelo para tu caso de uso específico — ya sea clasificación de correos electrónicos de clientes, generación de descripciones de productos o puntuación de leads — y lo exportas como archivo GGUF. Despliega el modelo a través de Ollama en cualquier servidor o máquina local, y de inmediato tendrás un endpoint API compatible con OpenAI listo para recibir solicitudes de Make.com.

    La integración no requiere cambios en la lógica de tu escenario existente. El módulo HTTP de Make.com puede llamar a cualquier endpoint REST, así que simplemente intercambias la URL de la API en la nube por tu dirección local de Ollama. Los formatos de solicitud y respuesta coinciden con la especificación de chat completions de OpenAI, lo que significa que tus plantillas JSON existentes, el análisis de respuestas y el manejo de errores continúan funcionando de manera idéntica. La única diferencia es que la inferencia ahora se ejecuta en hardware que tú controlas, a un costo mensual fijo sin importar cuántos tokens proceses.

    Getting Started

    1. 1

      Ajusta tu modelo en Ertas Studio

      Sube tus datos de entrenamiento — resultados previos de IA, ejemplos curados o documentos específicos de dominio — y configura un trabajo de fine-tuning en Ertas Studio. Selecciona un modelo base apropiado para tu caso de uso y establece tus parámetros de entrenamiento.

    2. 2

      Exporta el modelo en formato GGUF

      Una vez que el entrenamiento se complete, descarga tu modelo ajustado como archivo GGUF con el nivel de cuantización que equilibre calidad y velocidad para tu hardware. Ertas proporciona el Modelfile correspondiente para el despliegue con Ollama.

    3. 3

      Despliega con Ollama

      Registra el modelo con Ollama usando el Modelfile proporcionado e inicia el servidor de inferencia. La API compatible con OpenAI estará disponible en el puerto 11434, lista para aceptar solicitudes de chat completions.

    4. 4

      Configura el módulo HTTP de Make.com

      En tu escenario de Make.com, agrega o actualiza un módulo HTTP para apuntar a tu endpoint de Ollama. Establece la URL a la dirección de tu servidor, configura el cuerpo JSON de la solicitud con el nombre del modelo y el array de mensajes, y mapea las variables de tu escenario en el prompt.

    5. 5

      Prueba y activa el escenario

      Ejecuta el escenario en modo de prueba para verificar que las respuestas coincidan con tus expectativas. Compara la calidad de los resultados contra los resultados previos de la API en la nube, luego activa el escenario para uso en producción. Monitorea los registros de ejecución para cualquier diferencia de formato.

    json
    {
      "url": "http://your-server:11434/v1/chat/completions",
      "method": "POST",
      "headers": {
        "Content-Type": "application/json"
      },
      "body": {
        "model": "my-ertas-model",
        "messages": [
          {
            "role": "system",
            "content": "You are a customer support classifier."
          },
          {
            "role": "user",
            "content": "{{1.email_body}}"
          }
        ],
        "temperature": 0.3,
        "max_tokens": 256
      }
    }
    Configuración del módulo HTTP de Make.com apuntando a un endpoint local de Ollama que sirve un modelo entrenado con Ertas. El marcador {{1.email_body}} se mapea a la salida de un módulo anterior.

    Benefits

    • Elimina los costos de API por token — paga solo por tu hardware de servidor sin importar el volumen
    • Sin límites de tasa ni throttling durante ejecuciones de escenarios de alto volumen
    • Soberanía total de datos — los datos de clientes procesados en escenarios de Make.com nunca salen de tu infraestructura
    • Mantén la lógica de tu escenario existente, plantillas JSON y análisis de respuestas sin cambios
    • Costo de infraestructura mensual fijo que hace el presupuesto predecible para clientes de agencias
    • Los modelos ajustados producen resultados más consistentes y específicos de dominio que las APIs genéricas en la nube

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.