Hugging Face + Ertas
Importa modelos y datasets del Hugging Face Hub directamente a Ertas Studio, ajustalos en la nube gestionada de Ertas y publica tus modelos refinados de vuelta a la comunidad.
Overview
Hugging Face se ha convertido en el hub central para IA de codigo abierto, alojando cientos de miles de modelos pre-entrenados, datasets y spaces. Desde modelos fundacionales como Llama y Mistral hasta fine-tunes especificos de tareas para analisis de sentimiento, generacion de codigo y NLP medico, el ecosistema de Hugging Face proporciona el punto de partida para practicamente cualquier flujo de trabajo moderno de IA. Su formato estandarizado de tarjeta de modelo, metadatos de licencia y curacion impulsada por la comunidad facilitan descubrir y evaluar modelos antes de comprometerse con un pipeline de entrenamiento.
Ertas AI se integra profundamente con el Hugging Face Hub para que puedas explorar, descargar y publicar modelos sin salir de Ertas Studio. Ya sea que estes iniciando un nuevo proyecto con un modelo base o contribuyendo un fine-tune especifico del dominio de vuelta a la comunidad, la integracion elimina friccion y mantiene tu flujo de trabajo optimizado desde el descubrimiento hasta el despliegue.
How Ertas Integrates
Ertas Studio se conecta a la API del Hugging Face Hub, permitiendote buscar modelos y datasets por tarea, arquitectura o licencia directamente desde la interfaz de Studio. Una vez que seleccionas un modelo, Ertas lo importa a su entorno de nube gestionada, lo convierte al formato optimo para fine-tuning y pre-popula la configuracion de entrenamiento basada en la arquitectura y tamano del modelo. Los datasets pueden descargarse de la misma manera, con conversion automatica al formato JSONL para los pipelines de entrenamiento de Ertas.
Despues de que el fine-tuning se completa, puedes publicar tu modelo de vuelta al Hugging Face Hub directamente desde la interfaz de Studio. Ertas genera automaticamente una tarjeta de modelo con metadatos de entrenamiento, metricas de evaluacion y procedencia del dataset para que la comunidad pueda entender y reproducir tus resultados. Los repositorios privados estan soportados, dando a los equipos control total sobre la visibilidad mientras aprovechan las funciones de versionado y colaboracion del Hub.
Getting Started
- 1
Autenticate con Hugging Face
Agrega tu token de API de Hugging Face en la configuracion de Ertas Studio para habilitar acceso fluido a repositorios publicos y privados en el Hub.
- 2
Explora y selecciona un modelo base
Usa el explorador de modelos integrado para buscar por tipo de tarea, tamano de modelo o licencia. Previsualiza tarjetas de modelo y puntuaciones de benchmark antes de importar.
- 3
Importa el modelo a Ertas
Importa los pesos del modelo seleccionado y el tokenizer a la nube gestionada de Ertas. Ertas maneja la conversion de formato y optimizacion de almacenamiento automaticamente.
- 4
Descarga datasets de entrenamiento
Importa datasets del Hub y conviertelos al formato JSONL compatible con los pipelines de entrenamiento de Ertas. Aplica filtros, divisiones y transformaciones opcionales durante la importacion.
- 5
Ajusta con Ertas Studio
Lanza un trabajo de fine-tuning usando LoRA o entrenamiento de parametros completos. Ertas pre-llena hiperparametros recomendados basados en la arquitectura del modelo y tamano del dataset.
- 6
Publica el modelo ajustado de vuelta al Hub
Publica tu modelo ajustado en el Hugging Face Hub con tarjetas de modelo auto-generadas, registros de entrenamiento y metricas de evaluacion adjuntas.
# After fine-tuning in Ertas Studio and publishing to Hugging Face,
# load your model directly from the Hub
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"my-org/llama-3-alpaca-ft",
device_map="auto",
)
tokenizer = AutoTokenizer.from_pretrained("my-org/llama-3-alpaca-ft")
inputs = tokenizer("Summarize this document:", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))Benefits
- Accede a mas de 500,000 modelos de codigo abierto sin salir de Ertas Studio
- Conversion automatica de formato entre formatos de Hugging Face y nativos de Ertas
- Importacion de datasets con un clic con conversion JSONL para pipelines de entrenamiento
- Tarjetas de modelo auto-generadas con procedencia completa de entrenamiento al publicar
- Soporte para repositorios privados del Hub para flujos de trabajo empresariales y de equipo
- Visibilidad en la comunidad para tus modelos ajustados para atraer feedback y colaboracion
Related Resources
Fine-Tuning
GGUF
JSONL
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Introducing Ertas Studio: A Visual Canvas for Fine-Tuning AI Models
How to Fine-Tune an LLM: The Complete 2026 Guide
Fine-Tuning Llama 3: A Practical Guide for Your Use Case
Fine-Tune AI Models Without Writing Code
Ertas Studio vs. Unsloth vs. Axolotl: Fine-Tuning Tools Compared (2026)
Model Distillation with LoRA: Training Smaller Models from Frontier Outputs
llama.cpp
LM Studio
Ollama
Text Generation Web UI
Unsloth
vLLM
Ertas for Healthcare
Ertas for SaaS Product Teams
Ertas for Education
Ertas for Code Generation
Ertas for ML Engineers & Fine-Tuning Practitioners
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.