LM Studio + Ertas
Exporta modelos GGUF ajustados desde Ertas Studio y cargalos en LM Studio para inferencia local con una interfaz de chat intuitiva, API OpenAI-compatible y ajuste de rendimiento consciente del hardware.
Overview
LM Studio es una aplicacion de escritorio que hace que ejecutar modelos de lenguaje grandes localmente sea tan simple como usar una app de chat nativa. Proporciona un explorador visual de modelos, deteccion automatica de hardware y una interfaz de chat integrada que rivaliza con asistentes de IA alojados en la nube en usabilidad. Bajo el capo, LM Studio usa llama.cpp para inferencia, soportando una amplia gama de modelos cuantizados en GGUF en CPUs, GPUs NVIDIA, GPUs AMD y Apple Silicon con descarga automatica de GPU y gestion de memoria.
Mas alla de la interfaz de chat, LM Studio expone un servidor API local OpenAI-compatible, permitiendo a los desarrolladores construir aplicaciones contra sus modelos locales usando los mismos SDKs y bibliotecas que usarian con APIs en la nube. La combinacion de una GUI amigable para exploracion y una API lista para desarrolladores para integracion hace de LM Studio una de las herramientas mas versatiles en el ecosistema de IA local, sirviendo tanto a usuarios tecnicos como no tecnicos en el mismo equipo.
How Ertas Integrates
Despues de ajustar un modelo en Ertas Studio, puedes descargar los pesos entrenados en formato GGUF con tu nivel de cuantizacion preferido. El archivo GGUF exportado es completamente autocontenido con configuracion del tokenizer y plantillas de chat embebidas, asi que LM Studio reconoce las capacidades del modelo inmediatamente al importar. Simplemente arrastra el archivo GGUF descargado al directorio de modelos de LM Studio o usa el dialogo de importacion de archivos, y el modelo aparece en la lista de modelos locales listo para conversar.
Este flujo de trabajo crea un puente fluido entre el fine-tuning basado en la nube y el despliegue local. Los equipos pueden iterar en la calidad del modelo en Ertas Studio usando GPUs en la nube, exportar el mejor checkpoint y distribuir el archivo GGUF a los miembros del equipo que lo ejecutan localmente en LM Studio sin necesitar ninguna infraestructura de ML. Los stakeholders no tecnicos pueden evaluar modelos ajustados a traves de la UI de chat de LM Studio, proporcionando feedback que informa la siguiente iteracion de entrenamiento en Ertas.
Getting Started
- 1
Ajusta tu modelo en Ertas Studio
Sube tus datos de entrenamiento JSONL a Ertas Studio, configura tu ejecucion de entrenamiento en el lienzo visual y lanza el fine-tuning en GPUs de nube gestionadas.
- 2
Exporta como GGUF
Una vez que el entrenamiento se completa, descarga el modelo en formato GGUF. Elige un nivel de cuantizacion que coincida con tu hardware local — Q4_K_M para la mayoria de maquinas de consumo, Q8_0 para mayor calidad en hardware potente.
- 3
Importa en LM Studio
Abre LM Studio y arrastra el archivo GGUF descargado al directorio de modelos, o usa File, Import Model. LM Studio detecta la arquitectura, plantilla de chat y parametros automaticamente.
- 4
Configura los ajustes de inferencia
Ajusta longitud de contexto, temperatura, descarga de capas a GPU y cantidad de hilos en el panel de configuracion de LM Studio. LM Studio proporciona valores predeterminados conscientes del hardware basados en la memoria y computo disponibles de tu sistema.
- 5
Chatea y evalua
Inicia una conversacion con tu modelo ajustado a traves de la interfaz de chat de LM Studio. Prueba prompts especificos del dominio y compara salidas contra tu linea base para validar la calidad del entrenamiento.
- 6
Habilita el servidor API local
Activa el servidor local de LM Studio para exponer un endpoint OpenAI-compatible en localhost:1234. Apunta tus aplicaciones a este endpoint para inferencia completamente local y privada.
# After downloading your GGUF model from Ertas Studio,
# copy it to LM Studio's models directory
cp ./my-model-Q4_K_M.gguf ~/.lmstudio/models/my-model/
# LM Studio auto-detects the model on next launch.
# Once loaded, the local API is available at:
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "my-model",
"messages": [{"role": "user", "content": "Summarize this report"}]
}'Benefits
- Importacion de modelos intuitiva de arrastrar y soltar con cero configuracion requerida
- Valores predeterminados conscientes del hardware que optimizan automaticamente descarga a GPU e hilos
- Interfaz de chat integrada para que miembros no tecnicos del equipo evaluen modelos ajustados
- Servidor API local OpenAI-compatible para integracion perfecta con aplicaciones
- Soporte multiplataforma para Windows, macOS y Linux con optimizacion para Apple Silicon
- Sin conocimiento de linea de comandos requerido para despliegue y pruebas del modelo
Related Resources
Fine-Tuning
GGUF
Inference
Quantization
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Privacy-Conscious AI Development: Fine-Tune in the Cloud, Run on Your Terms
Self-Hosted AI for Indie Apps: Replace GPT-4 with Your Own Model
GPT4All
Jan
llama.cpp
Ollama
Ertas for Healthcare
Ertas for SaaS Product Teams
Ertas for Indie Developers & Vibe-Coded Apps
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.