Dify + Ertas
Construye, despliega y gestiona aplicaciones de IA en Dify usando modelos entrenados con Ertas para inteligencia especifica del dominio con orquestacion visual completa.
Overview
Dify es una plataforma de desarrollo de aplicaciones LLM de codigo abierto que combina un editor visual de flujos de trabajo, IDE de prompts, constructor de pipelines RAG y framework de agentes en una sola herramienta cohesiva. A diferencia de constructores simples de chatbots, Dify proporciona el stack completo para llevar una aplicacion de IA desde el prototipo hasta produccion — incluyendo gestion de API, analitica de uso, herramientas de anotacion y etiquetado, y control de acceso multi-tenant. Soporta tanto despliegues alojados en la nube como autoalojados, haciendolo adecuado para equipos con requisitos estrictos de residencia de datos.
El motor de orquestacion visual de Dify permite a los equipos construir flujos de trabajo de IA complejos conectando nodos de modelo, nodos de recuperacion de conocimiento, logica condicional y llamadas a herramientas externas en un lienzo. Cada flujo de trabajo puede publicarse como una app web independiente, chatbot embebido o API REST con limitacion de tasa y autenticacion integradas. La plataforma tambien incluye un IDE de prompts con gestion de variables e historial de versiones, lo que hace iterar en ingenieria de prompts significativamente mas rapido que editar archivos de codigo en un flujo de desarrollo tradicional.
How Ertas Integrates
Los modelos entrenados con Ertas se integran con Dify a traves de su interfaz de proveedor de modelo personalizado. Despues del fine-tuning en Ertas Studio, despliegas tu modelo en un endpoint OpenAI-compatible y lo registras como proveedor de modelo personalizado en la configuracion de Dify. Una vez registrado, el modelo aparece en el selector de modelos de Dify en todas las funciones — nodos de flujo de trabajo, asistentes de chat, APIs de completado y configuraciones de agentes. Esto significa que tu modelo ajustado puede impulsar cualquier tipo de aplicacion Dify sin configuracion adicional.
La combinacion Ertas-Dify es especialmente valiosa para equipos que construyen herramientas internas de IA. Ertas proporciona el modelo especializado que entiende la terminologia, procesos y formatos de datos de tu empresa, mientras Dify proporciona la capa de aplicacion — completa con gestion de usuarios, historial de conversaciones, recopilacion de feedback y analitica. Los equipos pueden desplegar una base de conocimiento orientada al cliente, una herramienta de busqueda interna de documentos y un pipeline de extraccion de datos, todos ejecutandose en el mismo modelo entrenado con Ertas, gestionados desde un solo dashboard de Dify. Cuando llega el momento de mejorar el modelo, el feedback recopilado a traves de las herramientas de anotacion de Dify puede exportarse como datos de entrenamiento y retroalimentarse en Ertas Studio.
Getting Started
- 1
Ajusta tu modelo en Ertas Studio
Entrena un modelo especifico del dominio usando Ertas Studio con tus datasets JSONL. Selecciona el modelo base apropiado y formato de cuantizacion para tu objetivo de despliegue.
- 2
Despliega el modelo en un endpoint de inferencia
Sirve tu modelo GGUF a traves de Ollama, vLLM o Ertas Cloud. Asegurate de que el endpoint exponga una API OpenAI-compatible para la integracion con Dify.
- 3
Registra el modelo en Dify
En la Configuracion de Dify, agrega un proveedor de modelo personalizado apuntando a tu endpoint de inferencia. Configura el nombre del modelo, ventana de contexto y capacidades.
- 4
Construye tu aplicacion en Dify
Crea una aplicacion de chatbot, flujo de trabajo o agente en Dify. Selecciona tu modelo entrenado con Ertas como proveedor de LLM y configura bases de conocimiento para RAG.
- 5
Publica y recopila feedback
Despliega tu aplicacion Dify como app web o API. Usa las herramientas de anotacion integradas de Dify para recopilar feedback de usuarios para futuros ciclos de reentrenamiento con Ertas.
# Dify custom model provider configuration
model_providers:
- provider: ertas-local
label: "Ertas Fine-Tuned Models"
provider_type: openai_api_compatible
credentials:
api_base: "http://localhost:11434/v1"
api_key: "not-needed"
models:
- model: ertas-support-7b
model_type: llm
context_length: 8192
max_tokens: 2048
- model: ertas-legal-7b
model_type: llm
context_length: 8192
max_tokens: 2048Benefits
- Plataforma de aplicacion completa con gestion de usuarios, analitica y control de acceso API
- Editor visual de flujos de trabajo para construir pipelines de IA complejos sin codigo
- Pipeline RAG integrado con gestion de base de conocimiento y controles de fragmentacion
- Opcion de despliegue autoalojado mantiene todos los datos dentro de tu infraestructura
- Herramientas de anotacion y feedback crean un ciclo directo de vuelta a Ertas Studio para reentrenamiento
- Soporte multi-tenant te permite servir diferentes equipos con diferentes configuraciones de modelo
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Fine-Tune AI Models Without Writing Code
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Running AI Models Locally: The Complete Guide to Local LLM Inference
Self-Hosted AI for Indie Apps: Replace GPT-4 with Your Own Model
Privacy-Conscious AI Development: Fine-Tune in the Cloud, Run on Your Terms
Flowise
LangChain
n8n
Ollama
Open WebUI
Ertas for Customer Support
Ertas for Content Creation
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.