Open WebUI + Ertas
Ajusta modelos en Ertas Studio, despliégalos vía Ollama y accede a ellos a través de Open WebUI — una interfaz de chat autoalojada y rica en funciones con soporte multiusuario, RAG y búsqueda web.
Overview
Open WebUI (anteriormente Ollama WebUI) es una interfaz web autoalojada y extensible que proporciona una experiencia tipo ChatGPT para ejecutar modelos localmente. Se conecta a Ollama y backends compatibles con OpenAI, ofreciendo una plataforma de chat multiusuario pulida que las organizaciones pueden desplegar en su propia infraestructura. Las funciones incluyen historial de conversaciones, cambio de modelo, carga de documentos para generación aumentada por recuperación (RAG), integración de búsqueda web, generación de imágenes, presets de modelo personalizados y un panel de administración robusto para gestionar usuarios y permisos.
Para equipos y organizaciones, Open WebUI resuelve el problema de la última milla de hacer la IA local accesible para todos. En lugar de requerir que cada usuario instale aplicaciones de escritorio o use herramientas CLI, Open WebUI proporciona una interfaz web centralizada a la que cualquier miembro del equipo puede acceder a través de su navegador. Con control de acceso basado en roles, monitoreo de uso y soporte para múltiples modelos concurrentes, transforma una colección de modelos locales en un servicio de IA gestionado que rivaliza con ofertas comerciales mientras mantiene todos los datos on-premises.
How Ertas Integrates
La integración entre Ertas y Open WebUI fluye a través de Ollama como la capa de inferencia. Después de ajustar un modelo en Ertas Studio, expórtalo en formato GGUF y regístralo con Ollama usando el Modelfile proporcionado. Open WebUI detecta automáticamente todos los modelos disponibles en la instancia de Ollama conectada, por lo que tu modelo entrenado con Ertas aparece en el selector de modelos inmediatamente. Los usuarios pueden iniciar conversaciones con el modelo ajustado, subir documentos para respuestas mejoradas con RAG y comparar resultados contra otros modelos — todo a través de la interfaz de chat familiar.
Esta arquitectura de tres capas — Ertas para el entrenamiento, Ollama para el servicio, Open WebUI para la interfaz de usuario — proporciona una plataforma de IA privada completa. Un equipo de machine learning itera en la calidad del modelo en Ertas Studio, un equipo de operaciones gestiona el despliegue de Ollama y los usuarios finales interactúan con los modelos a través de Open WebUI sin necesidad de entender la infraestructura subyacente. El panel de administración proporciona analíticas de uso y controles de acceso, mientras que el pipeline RAG permite a los usuarios aumentar el conocimiento del modelo ajustado con sus propios documentos en tiempo de consulta.
Getting Started
- 1
Ajusta en Ertas Studio
Sube tus datos de entrenamiento JSONL y ejecuta un trabajo de fine-tuning en las GPUs gestionadas en la nube de Ertas. Evalúa el modelo contra tu conjunto de pruebas antes de exportar.
- 2
Exporta GGUF y regístralo con Ollama
Descarga el modelo ajustado en formato GGUF desde Ertas Studio. Usa el Modelfile proporcionado para registrarlo con Ollama usando 'ollama create my-model -f Modelfile'.
- 3
Despliega Open WebUI
Ejecuta Open WebUI usando Docker con un solo comando. Apúntalo a tu instancia de Ollama para descubrir automáticamente todos los modelos disponibles incluyendo tu modelo entrenado con Ertas.
- 4
Configura usuarios y permisos
Configura cuentas de usuario y controles de acceso basados en roles en el panel de administración de Open WebUI. Restringe el acceso a modelos por rol si es necesario — por ejemplo, limita los modelos grandes costosos a equipos específicos.
- 5
Sube documentos para RAG
Los usuarios pueden subir PDFs, archivos de texto y otros documentos directamente en la interfaz de chat. Open WebUI los indexa localmente y usa generación aumentada por recuperación para fundamentar las respuestas en tus datos.
- 6
Monitorea el uso e itera
Revisa los registros de conversación y las analíticas de uso en el panel de administración. Retroalimenta los conocimientos a la siguiente iteración de fine-tuning en Ertas para mejorar la calidad del modelo para las necesidades específicas de tu equipo.
# After exporting GGUF from Ertas Studio and registering with Ollama:
ollama create my-ertas-model -f ./Modelfile
# Deploy Open WebUI with Docker (connects to local Ollama automatically)
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
# Open WebUI is now available at http://localhost:3000
# Your Ertas-trained model appears in the model selector automaticallyBenefits
- Experiencia autoalojada tipo ChatGPT accesible desde cualquier navegador en la red
- Soporte multiusuario con control de acceso basado en roles y gestión de administrador
- Pipeline RAG integrado para respuestas fundamentadas en documentos sin servicios externos
- Descubrimiento automático de modelos desde instancias de Ollama conectadas
- Integración de búsqueda web para combinar inteligencia de modelos locales con información en vivo
- Despliegue con Docker en un solo comando para configuración rápida de infraestructura
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Privacy-Conscious AI Development: Fine-Tune in the Cloud, Run on Your Terms
Introducing Ertas Studio: A Visual Canvas for Fine-Tuning AI Models
Multi-Tenant AI Deployment: One Base Model, Dozens of Client Adapters
LM Studio
Ollama
vLLM
Ertas for Healthcare
Ertas for SaaS Product Teams
Ertas for Customer Support
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.