Jan + Ertas

    Exporta modelos GGUF ajustados desde Ertas Studio e importalos en Jan para una experiencia de asistente de IA privada y sin conexion con una interfaz de chat limpia y ecosistema de extensiones.

    Overview

    Jan es un asistente de IA de escritorio de codigo abierto disenado para ejecutar modelos de lenguaje grandes completamente en tu maquina local. Construido con la privacidad como principio fundamental, Jan asegura que las conversaciones, documentos y datos nunca salgan de tu dispositivo. Su interfaz limpia estilo ChatGPT hace la IA local accesible para cualquiera, mientras su sistema de extensiones y servidor API local proporcionan la flexibilidad que los desarrolladores necesitan. Jan soporta modelos GGUF nativamente y funciona en Windows, macOS y Linux con backends optimizados para GPUs NVIDIA, AMD y Apple Silicon.

    Lo que distingue a Jan de otras herramientas de IA local es su enfoque en la experiencia de asistente. Mas alla del chat simple, Jan soporta hilos de conversacion, personalizacion de prompts del sistema, recuperacion de conocimiento de archivos locales y un marketplace de extensiones para agregar capacidades como busqueda web e interpretacion de codigo. Para equipos que ajustan modelos con Ertas para dominios especificos, Jan proporciona una experiencia de usuario final pulida que se siente como un producto de IA comercial ejecutandose completamente en infraestructura local.

    How Ertas Integrates

    El flujo de trabajo de Ertas a Jan es directo: despues de completar un trabajo de fine-tuning en Ertas Studio, descarga tu modelo en formato GGUF e importalo en Jan a traves de la interfaz de gestion de modelos. Jan lee los metadatos embebidos del archivo GGUF — incluyendo la plantilla de chat, configuracion del tokenizer y arquitectura del modelo — asi que el modelo importado funciona correctamente de forma inmediata sin configuracion manual. Puedes establecer prompts del sistema personalizados y parametros de inferencia por modelo para adaptar el comportamiento del asistente a tu caso de uso especifico.

    Esta integracion es particularmente valiosa para organizaciones que necesitan distribuir modelos ajustados a usuarios no tecnicos. Un equipo de ciencia de datos puede iterar en la calidad del modelo en Ertas Studio, exportar la mejor version como GGUF y compartir el archivo con usuarios de negocio que simplemente lo importan en Jan en sus estaciones de trabajo. Todo el pipeline de inferencia permanece local, cumpliendo requisitos de cumplimiento para industrias como salud, legal y finanzas donde los datos no pueden enviarse a servidores externos.

    Getting Started

    1. 1

      Completa el fine-tuning en Ertas Studio

      Sube tu dataset de entrenamiento, configura entrenamiento LoRA o de parametros completos en el lienzo de Ertas y ejecuta el trabajo en GPUs de nube gestionadas hasta que tus metricas de validacion converjan.

    2. 2

      Descarga el modelo GGUF

      Exporta tu modelo ajustado en formato GGUF desde Ertas Studio. Selecciona un nivel de cuantizacion apropiado para tu hardware objetivo — Q4_K_M es recomendado para la mayoria de dispositivos de consumo.

    3. 3

      Importa en Jan

      Abre Jan, navega al Model Hub y selecciona 'Import Model'. Elige tu archivo GGUF descargado. Jan detecta automaticamente la arquitectura del modelo y configura el runtime.

    4. 4

      Configura los ajustes del modelo

      Establece un prompt del sistema personalizado, ajusta temperatura, longitud de contexto y parametros de descarga a GPU en el panel de configuracion de modelos de Jan para que coincida con los requisitos de tu caso de uso.

    5. 5

      Comienza a chatear localmente

      Selecciona tu modelo importado de la lista de modelos y comienza una conversacion. Toda la inferencia se ejecuta localmente en tu hardware con cero solicitudes de red.

    bash
    # After downloading your GGUF model from Ertas Studio,
    # import it into Jan via the models directory
    cp ./my-model-Q4_K_M.gguf ~/jan/models/my-model/
    
    # Or use Jan's built-in import dialog:
    # Model Hub → Import Model → Select GGUF file
    
    # Jan also exposes a local API server (enable in Settings → Advanced)
    curl http://localhost:1337/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "my-model",
        "messages": [{"role": "user", "content": "Hello, how can you help?"}]
      }'
    Importa tu modelo GGUF exportado de Ertas en Jan para una experiencia de asistente de IA completamente local con un servidor API opcional.

    Benefits

    • Codigo abierto y completamente sin conexion — las conversaciones nunca salen de tu dispositivo
    • Interfaz limpia estilo ChatGPT accesible para miembros del equipo no tecnicos
    • Deteccion automatica de metadatos del modelo desde archivos GGUF para importacion sin configuracion
    • Ecosistema de extensiones para agregar recuperacion, busqueda web y capacidades de uso de herramientas
    • Servidor API local compatible con SDK de OpenAI para desarrollo de aplicaciones
    • Soporte multiplataforma con backends de GPU optimizados para todo el hardware principal

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.