Msty + Ertas

    Ejecuta modelos entrenados con Ertas en la elegante interfaz de chat de escritorio de Msty con gestión de modelos integrada, historial de conversaciones y funciones de base de conocimiento.

    Overview

    Msty es una aplicación de chat de IA de escritorio diseñada para usuarios que desean una experiencia nativa y pulida para interactuar con modelos de lenguaje locales. Disponible en macOS, Windows y Linux, Msty proporciona una interfaz de conversación limpia con funciones como ramificación de conversaciones, edición de mensajes, renderizado de markdown y resaltado de sintaxis de código. Soporta múltiples backends de modelos incluyendo Ollama, LM Studio y carga directa de archivos GGUF, haciéndolo uno de los clientes de IA local más flexibles disponibles.

    Más allá del chat, Msty incluye funcionalidad de base de conocimiento que permite a los usuarios adjuntar documentos a las conversaciones para respuestas con contexto. Gestiona descargas de modelos, proporciona métricas de rendimiento durante la inferencia y almacena todo el historial de conversaciones localmente. Para profesionales individuales y equipos pequeños que necesitan un asistente de IA de uso diario ejecutándose en su propio hardware, Msty proporciona la experiencia nativa de escritorio que las interfaces de chat basadas en web no pueden igualar — con capacidad sin conexión, atajos de teclado a nivel de sistema e integración con el sistema de notificaciones del sistema operativo.

    How Ertas Integrates

    Los modelos entrenados con Ertas funcionan perfectamente con Msty a través de su integración con el backend de Ollama. Después de ajustar en Ertas Studio y desplegar el modelo en Ollama, Msty descubre automáticamente y lo lista en el selector de modelos. Los usuarios pueden alternar entre sus modelos especialistas entrenados con Ertas y modelos de propósito general durante una conversación, comparando resultados lado a lado. Msty también soporta cargar archivos GGUF directamente, así que puedes importar un modelo exportado de Ertas sin siquiera configurar un servidor de inferencia.

    El flujo de trabajo Ertas-Msty es ideal para trabajadores del conocimiento que necesitan asistencia de IA en un dominio específico. Un analista financiero puede ajustar un modelo con reportes de ganancias y presentaciones ante la SEC en Ertas Studio, cargarlo en Msty y usarlo diariamente para investigación y análisis — con el modelo ejecutándose completamente en su laptop y todas las conversaciones almacenadas localmente. La función de base de conocimiento de Msty agrega otra capa: el analista puede adjuntar documentos relevantes a una conversación, combinando la experiencia de dominio del modelo ajustado con contexto documental en tiempo real. Esto crea un asistente de IA privado y personalizado que entiende tanto el dominio general como los materiales específicos en cuestión.

    Getting Started

    1. 1

      Ajusta tu modelo en Ertas Studio

      Entrena un modelo específico de dominio usando tus datos en Ertas Studio. Exporta el modelo terminado en formato GGUF con tu nivel de cuantización preferido.

    2. 2

      Despliega vía Ollama o carga el GGUF directamente

      Registra el modelo con Ollama para inferencia basada en servidor, o carga el archivo GGUF directamente en Msty para una configuración más simple.

    3. 3

      Selecciona tu modelo en Msty

      Abre Msty y selecciona tu modelo entrenado con Ertas desde el menú desplegable de modelos. Si usas Ollama, el modelo aparece automáticamente; si usas un archivo GGUF, apunta Msty a la ubicación del archivo.

    4. 4

      Adjunta documentos de base de conocimiento

      Opcionalmente sube documentos relevantes para tu trabajo. Msty los usará como contexto junto con el conocimiento entrenado de tu modelo ajustado.

    5. 5

      Comienza a usar tu asistente de IA personalizado

      Inicia conversaciones con tu modelo ajustado por dominio. Usa la ramificación de conversaciones para explorar diferentes enfoques y accede al historial completo de conversaciones como referencia.

    bash
    # Option 1: Deploy via Ollama (recommended)
    ollama create ertas-analyst-7b -f ./Modelfile
    # Msty auto-discovers Ollama models — just select it in the app
    
    # Option 2: Direct GGUF loading in Msty
    # 1. Download the GGUF file from Ertas Studio
    # 2. Open Msty → Settings → Models → Add Local Model
    # 3. Browse to: ~/models/ertas-analyst-7b-Q5_K_M.gguf
    # 4. Msty loads the model with llama.cpp backend
    
    # Either way, your fine-tuned model is ready
    # in Msty's chat interface within seconds
    Carga un modelo entrenado con Ertas en Msty mediante el descubrimiento automático de Ollama o la importación directa de archivos GGUF.

    Benefits

    • Aplicación de escritorio nativa con integración del sistema y atajos de teclado
    • La carga directa de GGUF elimina la necesidad de un servidor de inferencia separado
    • Ramificación de conversaciones para explorar múltiples rutas de respuesta
    • Los adjuntos de base de conocimiento combinan inteligencia ajustada con contexto documental
    • Todas las conversaciones almacenadas localmente con privacidad total
    • Soporte multiplataforma para macOS, Windows y Linux

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.