n8n + Ertas

    Usa la plataforma de automatización autoalojada de n8n con modelos entrenados con Ertas para flujos de trabajo de IA con privacidad primero, donde tanto la capa de orquestación como el motor de inferencia se ejecutan en infraestructura que tú controlas.

    Overview

    n8n es la plataforma de automatización de flujos de trabajo de código abierto y autoalojada que se ha convertido en la opción preferida para equipos que necesitan control total sobre sus datos e infraestructura. A diferencia de las alternativas solo en la nube, n8n se ejecuta en tus propios servidores, lo que significa que cada dato que fluye a través de tus automatizaciones permanece dentro del perímetro de tu red. Esta arquitectura ha hecho a n8n especialmente popular entre agencias de IA que sirven a clientes en industrias reguladas — proveedores de salud, instituciones financieras y firmas legales que no pueden enviar datos sensibles a través de servicios en la nube de terceros.

    El editor visual basado en nodos de la plataforma soporta más de 400 integraciones listas para usar, y sus nodos dedicados de IA — incluyendo el nodo AI Agent, el nodo LLM Chain y varios nodos de memoria y herramientas — hacen sencillo construir flujos de trabajo sofisticados impulsados por IA. Sin embargo, la mayoría de los tutoriales y plantillas de IA de n8n usan por defecto proveedores de API en la nube para el backend del modelo de lenguaje, lo que introduce las mismas preocupaciones de costo y privacidad que llevaron a los equipos a elegir la arquitectura autoalojada de n8n en primer lugar.

    How Ertas Integrates

    El nodo AI Agent y los nodos LLM Chain de n8n soportan endpoints personalizados compatibles con OpenAI a través de su sistema de credenciales. Esto significa que puedes entrenar un modelo diseñado específicamente en Ertas Studio, desplegarlo localmente vía Ollama y apuntar n8n directamente a ese endpoint local sin instalar plugins adicionales ni nodos personalizados. La configuración de credenciales acepta una URL base personalizada, así que simplemente ingresas la dirección de tu servidor Ollama y el nombre del modelo — n8n se encarga del resto usando el protocolo estándar de chat completions de OpenAI.

    Esto crea un stack de IA completamente autoalojado donde tanto el motor de automatización como el modelo de lenguaje se ejecutan en tu infraestructura. El fine-tuning con Ertas te permite optimizar el rendimiento del modelo para tus tareas específicas — ya sea extraer datos estructurados de facturas, clasificar tickets de soporte por urgencia o generar respuestas de correo personalizadas. El resultado es un flujo de trabajo de IA que es más rápido (sin viajes de red a APIs en la nube), más económico (sin facturación por token) y más privado (ningún dato sale de tus servidores en ningún punto del pipeline).

    Getting Started

    1. 1

      Ajusta un modelo específico para tareas en Ertas Studio

      Prepara tu dataset de entrenamiento con ejemplos relevantes para tu flujo de trabajo — correos clasificados, campos extraídos de facturas o respuestas generadas — y ejecuta un trabajo de fine-tuning en Ertas Studio dirigido a tu modelo base elegido.

    2. 2

      Despliega el modelo con Ollama

      Exporta el modelo ajustado como GGUF, regístralo con Ollama usando el Modelfile generado por Ertas e inicia el servidor. Confirma que el modelo es accesible en el endpoint esperado.

    3. 3

      Configura las credenciales de n8n para el endpoint local

      En n8n, crea una nueva credencial compatible con OpenAI. Establece la URL base a la dirección de tu servidor Ollama (por ejemplo, http://localhost:11434/v1) e ingresa cualquier cadena como clave API ya que Ollama no requiere autenticación por defecto.

    4. 4

      Construye tu flujo de trabajo con nodos AI Agent

      Agrega un nodo AI Agent o LLM Chain a tu flujo de trabajo y selecciona la credencial que acabas de crear. Especifica el nombre de tu modelo, configura el prompt de sistema para tu tarea y conecta el nodo a la lógica de tu flujo de trabajo existente.

    5. 5

      Monitorea e itera

      Ejecuta ejecuciones de prueba para validar la calidad de los resultados. Usa el registro de ejecución de n8n para inspeccionar prompts y respuestas, y retroalimenta los casos límite a tu dataset de entrenamiento de Ertas para la siguiente iteración de fine-tuning.

    json
    {
      "n8n_credential_type": "OpenAI Compatible",
      "settings": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "not-required",
        "modelName": "my-ertas-model"
      },
      "ai_agent_node": {
        "systemPrompt": "You are a support ticket classifier. Respond with exactly one label: billing, technical, account, or general.",
        "temperature": 0.1,
        "maxTokens": 32
      }
    }
    Configuración de credenciales de n8n y nodo AI Agent para conectarse a un endpoint local de Ollama que sirve un modelo entrenado con Ertas.

    Benefits

    • Pipeline de IA completamente autoalojado — tanto la automatización como la inferencia se ejecutan en tu infraestructura
    • Soporte nativo a través del sistema de credenciales compatible con OpenAI de n8n sin necesidad de plugins personalizados
    • Cero costos por token sin importar cuántos nodos de IA se ejecuten por flujo de trabajo
    • Privacidad total de datos — documentos sensibles y datos de clientes nunca salen de tu red
    • Los modelos ajustados superan a las APIs genéricas en tareas específicas de dominio como clasificación y extracción
    • Elimina los límites de tasa de APIs en la nube que causan fallos en flujos de trabajo durante horas pico de procesamiento

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.