Hugging Face + Ertas

    Importa modelos y datasets del Hugging Face Hub directamente a Ertas Studio, ajustalos en la nube gestionada de Ertas y publica tus modelos refinados de vuelta a la comunidad.

    Overview

    Hugging Face se ha convertido en el hub central para IA de codigo abierto, alojando cientos de miles de modelos pre-entrenados, datasets y spaces. Desde modelos fundacionales como Llama y Mistral hasta fine-tunes especificos de tareas para analisis de sentimiento, generacion de codigo y NLP medico, el ecosistema de Hugging Face proporciona el punto de partida para practicamente cualquier flujo de trabajo moderno de IA. Su formato estandarizado de tarjeta de modelo, metadatos de licencia y curacion impulsada por la comunidad facilitan descubrir y evaluar modelos antes de comprometerse con un pipeline de entrenamiento.

    Ertas AI se integra profundamente con el Hugging Face Hub para que puedas explorar, descargar y publicar modelos sin salir de Ertas Studio. Ya sea que estes iniciando un nuevo proyecto con un modelo base o contribuyendo un fine-tune especifico del dominio de vuelta a la comunidad, la integracion elimina friccion y mantiene tu flujo de trabajo optimizado desde el descubrimiento hasta el despliegue.

    How Ertas Integrates

    Ertas Studio se conecta a la API del Hugging Face Hub, permitiendote buscar modelos y datasets por tarea, arquitectura o licencia directamente desde la interfaz de Studio. Una vez que seleccionas un modelo, Ertas lo importa a su entorno de nube gestionada, lo convierte al formato optimo para fine-tuning y pre-popula la configuracion de entrenamiento basada en la arquitectura y tamano del modelo. Los datasets pueden descargarse de la misma manera, con conversion automatica al formato JSONL para los pipelines de entrenamiento de Ertas.

    Despues de que el fine-tuning se completa, puedes publicar tu modelo de vuelta al Hugging Face Hub directamente desde la interfaz de Studio. Ertas genera automaticamente una tarjeta de modelo con metadatos de entrenamiento, metricas de evaluacion y procedencia del dataset para que la comunidad pueda entender y reproducir tus resultados. Los repositorios privados estan soportados, dando a los equipos control total sobre la visibilidad mientras aprovechan las funciones de versionado y colaboracion del Hub.

    Getting Started

    1. 1

      Autenticate con Hugging Face

      Agrega tu token de API de Hugging Face en la configuracion de Ertas Studio para habilitar acceso fluido a repositorios publicos y privados en el Hub.

    2. 2

      Explora y selecciona un modelo base

      Usa el explorador de modelos integrado para buscar por tipo de tarea, tamano de modelo o licencia. Previsualiza tarjetas de modelo y puntuaciones de benchmark antes de importar.

    3. 3

      Importa el modelo a Ertas

      Importa los pesos del modelo seleccionado y el tokenizer a la nube gestionada de Ertas. Ertas maneja la conversion de formato y optimizacion de almacenamiento automaticamente.

    4. 4

      Descarga datasets de entrenamiento

      Importa datasets del Hub y conviertelos al formato JSONL compatible con los pipelines de entrenamiento de Ertas. Aplica filtros, divisiones y transformaciones opcionales durante la importacion.

    5. 5

      Ajusta con Ertas Studio

      Lanza un trabajo de fine-tuning usando LoRA o entrenamiento de parametros completos. Ertas pre-llena hiperparametros recomendados basados en la arquitectura del modelo y tamano del dataset.

    6. 6

      Publica el modelo ajustado de vuelta al Hub

      Publica tu modelo ajustado en el Hugging Face Hub con tarjetas de modelo auto-generadas, registros de entrenamiento y metricas de evaluacion adjuntas.

    python
    # After fine-tuning in Ertas Studio and publishing to Hugging Face,
    # load your model directly from the Hub
    from transformers import AutoModelForCausalLM, AutoTokenizer
    
    model = AutoModelForCausalLM.from_pretrained(
        "my-org/llama-3-alpaca-ft",
        device_map="auto",
    )
    tokenizer = AutoTokenizer.from_pretrained("my-org/llama-3-alpaca-ft")
    
    inputs = tokenizer("Summarize this document:", return_tensors="pt")
    outputs = model.generate(**inputs, max_new_tokens=256)
    print(tokenizer.decode(outputs[0], skip_special_tokens=True))
    Despues de ajustar en Ertas Studio y publicar en el Hub, carga tu modelo con Hugging Face Transformers.

    Benefits

    • Accede a mas de 500,000 modelos de codigo abierto sin salir de Ertas Studio
    • Conversion automatica de formato entre formatos de Hugging Face y nativos de Ertas
    • Importacion de datasets con un clic con conversion JSONL para pipelines de entrenamiento
    • Tarjetas de modelo auto-generadas con procedencia completa de entrenamiento al publicar
    • Soporte para repositorios privados del Hub para flujos de trabajo empresariales y de equipo
    • Visibilidad en la comunidad para tus modelos ajustados para atraer feedback y colaboracion

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.