AI Models

    Open-source models you can fine-tune with Ertas.

    Ant Group Ling / Ring

    Reasoning

    Ant Group (inclusionAI)

    Familia open-weight de un billón de parámetros de Ant Group: Ling-2.5-1T (sin pensamiento, contexto de 1M) y Ring-2.5-1T (el primer modelo de pensamiento del mundo con arquitectura híbrida-lineal, con medalla de oro en la IMO 2025 con 35/42 puntos y en la CMO 2025), además de la actualización Ling-2.6-1T de abril de 2026.

    1T (Ling/Ring 2.5)1T (Ling 2.6)

    Arcee Trinity Large

    Reasoning

    Arcee AI

    Lanzamiento de Arcee AI de enero de 2026 — una mezcla de expertos de 400 mil millones de parámetros con 13B de parámetros activos, 256 expertos (4 activos por token), 17 billones de tokens de entrenamiento y 30-33 días de entrenamiento en 2048 chips NVIDIA B300. Uno de los pocos modelos open-weight de frontera fabricados en EE. UU. en 2026 junto con OLMo 3 y GPT-OSS.

    400B-A13B

    Code Llama

    Code

    Meta

    Familia de modelos especializados en generación de código de Meta, basada en Llama 2, disponible en tamaños de 7B, 13B, 34B y 70B con variantes optimizadas para completado de código, seguimiento de instrucciones y desarrollo en Python.

    7B13B34B

    Command R

    General

    Cohere

    Familia de modelos enfocados en empresas de Cohere en tamaños de 35B y 104B, diseñados específicamente para generación aumentada por recuperación (RAG) con soporte nativo de citas, uso de herramientas y capacidad multilingüe en más de 10 idiomas.

    35B104B

    DeepSeek V3.2

    Reasoning

    DeepSeek

    El lanzamiento de DeepSeek de finales de 2025 que introdujo DeepSeek Sparse Attention (DSA) — un mecanismo de atención dispersa aprendido que permite inferencia eficiente de contexto largo, junto con un toggle unificado de modo de pensamiento. Predecesor directo de DeepSeek V4. Licencia tipo MIT.

    671B-A37B

    DeepSeek V4

    Reasoning

    DeepSeek

    Modelo insignia de DeepSeek de abril de 2026: una mezcla de expertos de 1,6 billones de parámetros con 49B parámetros activos y 1M de tokens de contexto, que actualmente lidera los benchmarks compuestos de inteligencia open-weight y, según se informa, está cerrando la brecha con los modelos propietarios de frontera.

    284B-A13B (Flash)1.6T-A49B (Pro)

    DeepSeek-R1

    Reasoning

    DeepSeek

    Modelo de razonamiento dedicado de DeepSeek, entrenado con aprendizaje por refuerzo para realizar razonamiento extendido de cadena de pensamiento, disponible en tamaños destilados desde 1.5B hasta 70B y la arquitectura completa de mezcla de expertos de 671B.

    1.5B7B8B

    DeepSeek-V3

    General

    DeepSeek

    Modelo insignia de DeepSeek con 671 mil millones de parámetros y arquitectura de mezcla de expertos con 37B de parámetros activos por token, ofreciendo rendimiento de nivel frontera a costos de inferencia notablemente eficientes.

    671B (37B active)

    Devstral 2

    Code

    Mistral AI

    Familia open-weight especializada en programación de Mistral AI: Devstral 2 (123B) y Devstral Small 2 (24B), con la variante de 123B obteniendo 72.2% en SWE-Bench Verified y la de 24B ejecutándose en hardware de consumo. Lanzada como una línea especialista en programación antes de ser absorbida por la arquitectura unificada de Mistral Small 4 en marzo de 2026.

    24B (Small 2)123B

    Falcon

    General

    TII Abu Dhabi

    Familia de modelos de pesos abiertos del Instituto de Innovación Tecnológica en tamaños de 7B, 40B y 180B, entrenados con el masivo dataset RefinedWeb y pioneros en el uso de datos web filtrados de alta calidad para el entrenamiento de LLMs.

    7B40B180B

    Falcon H1R-7B

    Reasoning

    TII

    La arquitectura híbrida Mamba+Transformer de TII publicada en enero de 2026 — un modelo de 7 mil millones de parámetros con contexto de 256K que obtiene 83,1% en AIME 2025, superando a modelos de razonamiento hasta 7× más grandes en benchmarks matemáticos.

    7B

    Falcon-H1 Arabic

    Multilingual

    TII

    Lanzamiento especializado en árabe de Technology Innovation Institute de enero de 2026: tres tamaños (3B, 7B, 34B) con arquitectura híbrida Mamba+Transformer, líder del Open Arabic LLM Leaderboard. La variante de 34B supera a Llama 3.3 70B con menos de la mitad del conteo de parámetros en benchmarks específicos de árabe.

    3B7B34B

    Falcon-H1-Tiny

    Small

    TII

    Colección de modelos ultra-pequeños de Technology Innovation Institute de enero de 2026: 15 variantes por debajo de 100M parámetros más un modelo de razonamiento de 600M (Falcon-H1-Tiny-R-0.6B), todos usando arquitectura híbrida Mamba+Transformer para los LLMs viables más pequeños de 2026 en despliegue en navegador y microcontrolador.

    ~50M~135M~360M

    Gemma 3

    General

    Google

    La más reciente familia de modelos de pesos abiertos de Google, construida sobre la tecnología Gemini, disponible en tamaños de 1B, 4B, 12B y 27B con capacidades multimodales nativas de visión-lenguaje y una ventana de contexto de 128K tokens.

    1B4B12B

    Gemma 4

    General

    Google

    Familia de modelos open-weight de Google de abril de 2026: la primera generación de Gemma publicada bajo Apache 2.0, que abarca un modelo insignia denso de 31B, una variante de mezcla de expertos de 26B-A3.8B y modelos optimizados para edge de 4B y 2B, todos con capacidades multimodales nativas.

    2B (e2b)4B (e4b)26B-A3.8B

    GLM-4.5

    General

    Z.ai

    El lanzamiento de mezcla de expertos de Z.ai de julio de 2025 — 355.000 millones de parámetros totales con 32.000 millones activos por token, diseñado para correr en 8× chips Huawei Ascend H20. El predecesor caballo de batalla del insignia GLM-5.

    355B-A32B

    GLM-4.6

    General

    Z.ai

    Lanzamiento de gama media de Z.ai a finales de 2025 — una mezcla de expertos de 355 mil millones de parámetros con contexto de 200K, paridad de programación cercana a Claude Sonnet 4 y aproximadamente un 15% menos de tokens por tarea que su predecesor. Variantes complementarias de visión GLM-4.6V (106B y 9B) extienden la familia a casos de uso multimodales.

    355B

    GLM-4.7

    Code

    Z.ai

    Lanzamiento de Z.ai de diciembre de 2025 enfocado en programación — una mezcla de expertos de 400 mil millones de parámetros con razonamiento multi-turno 'Preserved Thinking', más una variante GLM-4.7 Flash más pequeña para servicio en producción. Lideró Code Arena entre los modelos open-weight al lanzamiento antes de ser sucedido por la serie GLM-5.

    ~400B (Flagship)Flash (smaller)

    GLM-5

    Reasoning

    Z.ai

    El insignia de febrero de 2026 de Z.ai — un modelo de 745.000 millones de parámetros entrenado en chips Huawei Ascend, la base de la serie GLM-5 antes de que la actualización GLM-5.1 de abril de 2026 añadiera mejoras sustanciales de post-entrenamiento. Z.ai cotizó en la Bolsa de Hong Kong en enero de 2026.

    745B

    GLM-5.1

    Reasoning

    Z.ai

    Actualización de Z.ai del 8 de abril de 2026 sobre GLM-5: misma base de 745.000 millones de parámetros con post-entrenamiento refinado, que ofrece una mejora del 28% en programación, capacidad de ejecución autónoma de 8 horas y un liderazgo en SWE-Bench Pro que brevemente colocó a un modelo open-weight por delante de GPT-5.4 y Claude Opus 4.6.

    745B

    GPT-OSS

    General

    OpenAI

    El primer lanzamiento open-weight de OpenAI desde GPT-2 — una familia de mezcla de expertos con el insignia GPT-OSS-120B de 117B/5,1B activos y una variante más pequeña GPT-OSS-20B de 21B/3,6B activos, publicada en agosto de 2025 bajo Apache 2.0.

    21B-A3.6B (20b)117B-A5.1B (120b)

    Hermes 4

    Reasoning

    Nous Research

    Familia de modelos de Nous Research de agosto de 2025: ajustes basados en Llama-3.1 en tamaños de 14B, 70B y 405B con razonamiento híbrido mediante tokens explícitos de pensamiento, post-entrenamiento de alineación neutra, y entrenados con ~60.000 millones de tokens usando el sistema de aprendizaje por refuerzo Atropos con ~1.000 verificadores específicos de tareas.

    14B70B405B

    IBM Granite 4.1

    General

    IBM

    Lanzamiento de IBM enfocado en empresas del 29 de abril de 2026: una familia de modelos densos en tamaños de 3B, 8B y 30B además de un Embedding R2 y una variante de Voz de 2B. La 8B Instruct iguala al MoE de 32B de Granite 4.0 de la generación anterior en benchmarks. Apache 2.0 con cobertura de más de 12 idiomas.

    3B8B30B

    InternLM

    Multilingual

    Shanghai AI Lab

    Serie de modelos multilingües del Laboratorio de IA de Shanghái en tamaños de 7B y 20B, con fuertes capacidades chino-inglés, soporte de contexto largo y excelente rendimiento en benchmarks de razonamiento y uso de herramientas.

    7B20B

    Kimi K2

    Reasoning

    Moonshot AI

    El modelo original de mezcla de expertos de un billón de parámetros de Moonshot AI de 2025 — la base de la serie Kimi K2, con K2.5 estableciendo el récord de pesos abiertos en HumanEval con 99.0 y K2.6 introduciendo la orquestación Agent Swarm. Licencia MIT modificada.

    1T-A32B

    Kimi K2.5

    Reasoning

    Moonshot AI

    El lanzamiento de Moonshot AI en enero de 2026 — el primer modelo Kimi multimodal, añadiendo el codificador de visión MoonViT-3D al linaje K2 con su arquitectura de mezcla de expertos de 1T parámetros. Estableció el récord open-weight en HumanEval con 99,0 e introdujo el runtime original de enjambre de 100 agentes que K2.6 luego escaló a 300.

    1T-A32B

    Kimi K2.6

    Reasoning

    Moonshot AI

    Lanzamiento de Moonshot AI de abril de 2026: un modelo de mezcla de expertos de 1 billón de parámetros con 32B parámetros activos, soporte nativo de visión, y la destacada capacidad Agent Swarm que escala a 300 sub-agentes coordinados durante 4.000 pasos para tareas de programación e investigación de largo horizonte.

    1T-A32B

    Llama 3

    General

    Meta

    La tercera generación de la familia de modelos de lenguaje de pesos abiertos de Meta, ofreciendo rendimiento de vanguardia en razonamiento, generación de código y tareas multilingües en configuraciones de 8B, 70B y 405B parámetros.

    8B70B405B

    Llama 4

    General

    Meta

    La cuarta generación de la familia de modelos de pesos abiertos de Meta con arquitectura de mezcla de expertos, con Scout (109B total, 17B activos) para despliegue eficiente y Maverick (400B total, 17B activos) para tareas de alta capacidad.

    Scout 109B (17B active)Maverick 400B (17B active)

    Magistral

    Reasoning

    Mistral AI

    La línea de modelos de razonamiento dedicada de Mistral AI — Magistral Medium 1.2 (magistral-medium-2509) y Magistral Small 1.2 (magistral-small-2509) — enfocada en capacidad extendida de cadena de pensamiento antes de que el linaje fuera unificado en Mistral Small 4.

    SmallMedium

    MiMo V2.5

    Code

    Xiaomi

    Lanzamiento de gama media de Xiaomi del 28 de abril de 2026: una mezcla de expertos de 310 mil millones de parámetros con 15B de parámetros activos, con licencia MIT y publicado junto con el buque insignia más grande MiMo V2.5 Pro. La gama media desplegable de la familia MiMo para equipos que no necesitan la infraestructura completa Pro.

    310B-A15B

    MiMo V2.5 Pro

    Code

    Xiaomi

    Modelo insignia de Xiaomi de abril de 2026: una mezcla de expertos de 1,02 billones de parámetros con 42B parámetros activos, 1M de tokens de contexto, licencia MIT, y puntuaciones de benchmark que, según se informa, superan a Claude Opus 4.6 en SWE-Bench Pro para tareas de programación agéntica.

    1T-A42B

    MiniMax M2.5

    Code

    MiniMax

    El modelo de programación insignia de MiniMax — actual líder en SWE-Bench Verified con 80,2% entre los modelos open-weight, diseñado para cargas de trabajo de programación agéntica. El sucesor M2.7 continúa extendiendo la línea.

    456B-A45B

    MiniMax M2.7

    Reasoning

    MiniMax

    Lanzamiento auto-evolutivo de MiniMax de marzo de 2026 — mejorado mediante más de 100 rondas de aprendizaje por refuerzo autónomo, con razonamiento nativo, contexto de 205K, y la capacidad de ejecutar el 30-50% de un flujo de investigación en RL de forma autónoma. El sucesor de M2.5 (el anterior líder en SWE-Bench Verified con 80,2%).

    456B-A45B

    Mistral 7B

    General

    Mistral AI

    El modelo fundacional de 7 mil millones de parámetros de Mistral AI que rinde muy por encima de su categoría de tamaño, con atención de ventana deslizante y atención de consultas agrupadas para inferencia eficiente de contexto largo.

    7B

    Mistral Small 4

    General

    Mistral AI

    El lanzamiento de Mistral en marzo de 2026 que unifica los linajes previamente separados de Magistral (razonamiento), Devstral (agentes de programación) y Mistral Small (ajustado por instrucciones) en un único modelo de mezcla de expertos de 119B con 6B de parámetros activos, publicado bajo Apache 2.0.

    119B-A6B

    Mixtral

    General

    Mistral AI

    Modelos de mezcla de expertos de Mistral AI que enrutan cada token a través de 2 de 8 redes de expertos, entregando rendimiento de clase 70B al costo de un modelo denso de 13B en la variante 8x7B.

    8x7B8x22B

    Nemotron 3 Nano Omni

    Multilingual

    NVIDIA

    Lanzamiento omni-modal de NVIDIA del 29 de abril de 2026 — una mezcla de expertos de 30 mil millones de parámetros con 3B de parámetros activos por token, procesamiento unificado de texto/visión/audio/imagen, 9× de rendimiento frente a otros modelos omni open-weight en cargas de video, y despliegue con 25GB de RAM. Adoptantes en producción al lanzamiento: Foxconn, Palantir, Oracle, DocuSign.

    30B-A3B

    Neural Chat

    General

    Intel

    Modelo conversacional de 7 mil millones de parámetros de Intel, ajustado a partir de Mistral 7B, optimizado para hardware Intel y demostrando fuerte rendimiento en chat con enfoque particular en eficiencia de inferencia en CPU.

    7B

    OLMo

    General

    Allen AI

    Familia de modelos de lenguaje completamente abiertos del Allen Institute for AI en tamaños de 1B, 7B y 13B, con datos de entrenamiento, código, pesos y evaluación completamente abiertos — estableciendo el estándar para investigación de IA reproducible.

    1B7B13B

    OpenChat

    General

    OpenChat

    Un modelo de 7 mil millones de parámetros ajustado a partir de Mistral 7B usando Conditioned Reinforcement Learning Fine-Tuning (C-RLFT), logrando rendimiento de nivel GPT-3.5 a través de un enfoque novedoso de entrenamiento con datos de calidad mixta.

    7B

    Phi-3

    Small

    Microsoft

    Familia de modelos de lenguaje compactos pero capaces de Microsoft, disponible en tamaños de 3.8B, 7B y 14B, diseñados para despliegue en dispositivo y edge con rendimiento sorprendentemente fuerte en tareas de razonamiento y seguimiento de instrucciones.

    3.8B7B14B

    Phi-4

    Small

    Microsoft

    Modelo de lenguaje pequeño de 14 mil millones de parámetros de Microsoft que enfatiza la calidad de razonamiento a través de entrenamiento con datos sintéticos, logrando rendimiento competitivo con modelos varias veces más grandes en benchmarks de matemáticas y lógica.

    14B

    Qwen 2.5

    Multilingual

    Alibaba

    Familia integral de modelos de pesos abiertos de Alibaba que abarca siete tamaños desde 0.5B hasta 72B parámetros, con capacidades multilingües y de codificación particularmente fuertes en más de 29 idiomas.

    0.5B1.5B3B

    Qwen 3

    Multilingual

    Alibaba

    La familia de modelos de última generación de Alibaba con arquitecturas tanto densas como de mezcla de expertos, con tamaños desde 0.6B hasta 235B y modos de pensamiento híbrido integrados para profundidad de razonamiento adaptativa.

    0.6B1.7B4B

    Qwen 3.5

    Reasoning

    Alibaba

    El lanzamiento insignia de razonamiento de Alibaba de febrero de 2026 — un modelo de mezcla de expertos 397B-A17B que actualmente lidera el benchmark GPQA Diamond de pesos abiertos con 88.4, con variantes hermanas desde 0.8B hasta 122B-A10B. Apache 2.0.

    0.8B2B4B

    Qwen 3.6

    Multilingual

    Alibaba

    Lanzamiento insignia de Alibaba en abril de 2026 que combina una variante densa de 27B que supera al modelo de razonamiento de 397B de la generación anterior en programación, junto con una variante de mezcla de expertos de 35B-A3B para inferencia ultra-eficiente, todo bajo Apache 2.0.

    27B35B-A3B

    Qwen3-Coder

    Code

    Alibaba

    La línea de modelos de codificación especializados de Alibaba — incluyendo el insignia Qwen3-Coder 480B-A35B con contexto de 256K-1M y el Qwen3-Coder-Next 80B-A3B, ambos diseñados nativamente para CLIs de codificación agéntica al estilo Claude Code, Cline y Qwen Code. Apache 2.0.

    30B-A3B80B-A3B (Next)480B-A35B

    Qwen3-Coder-Next

    Code

    Alibaba

    El lanzamiento gigante-pequeño de Alibaba en febrero de 2026 — un modelo de mezcla de expertos de 80 mil millones de parámetros con solo 3B de parámetros activos por token, superando a DeepSeek V3.2 (37B activos), Kimi K2.5 y GLM-4.7 (32B activos cada uno) en benchmarks de programación mientras activa 10× menos parámetros. Apache 2.0 con contexto de 256K.

    80B-A3B

    Qwen3-Omni

    Multilingual

    Alibaba

    El modelo omni-modal de Alibaba — acepta entrada de texto, imagen, audio y video y produce texto más salida de voz en tiempo real en un solo checkpoint de mezcla de expertos 30B-A3B. Apache 2.0.

    30B-A3B

    Qwen3.5-Omni

    Multilingual

    Alibaba

    Lanzamiento omni-modal de Alibaba del 30 de marzo de 2026 — variantes Plus, Flash y Light que admiten 113 idiomas como entrada de voz, contexto de 256K (10 horas de audio o 400 segundos de video 720p), y superando a Gemini 3.1 Pro en benchmarks de audio. El sucesor arquitectónico y de capacidades de Qwen3-Omni.

    Light (edge)Flash (latency)Plus (flagship)

    SmolLM

    Small

    HuggingFace

    Familia de modelos de lenguaje ultracompactos de HuggingFace en tamaños de 135M, 360M y 1.7B, entrenados con el dataset sintético de alta calidad Cosmopedia y diseñados para aplicaciones de IA en dispositivo con requisitos mínimos de recursos.

    135M360M1.7B

    SOLAR

    General

    Upstage

    Modelo de 10.7 mil millones de parámetros de Upstage creado mediante escalado en profundidad (depth up-scaling), una técnica novedosa que fusiona y extiende las capas de un modelo preentrenado para lograr calidad de modelo grande a un costo de inferencia eficiente.

    10.7B

    StarCoder

    Code

    BigCode / HuggingFace

    Un modelo de generación de código de acceso abierto entrenado con código fuente bajo licencias permisivas, disponible en tamaños de 3B, 7B y 15B con gobernanza transparente de datos de entrenamiento y fuerte soporte de programación multi-lenguaje.

    3B7B15B

    StepFun Step-3.5-Flash

    Reasoning

    StepFun

    Lanzamiento small-giant de StepFun de febrero de 2026: una mezcla de expertos de 196 mil millones de parámetros con 11B de parámetros activos, que supera a Kimi K2.5 (1T) y DeepSeek V3.2 (671B) en benchmarks agénticos, de razonamiento y de programación a una escala 3-5 veces menor. Apache 2.0 con 100 tok/seg en contexto de 128K en GPUs Hopper.

    196B-A11B

    Tencent Hy3 (Hunyuan 3) Preview

    Reasoning

    Tencent

    Lanzamiento de regreso de Tencent del 23 de abril de 2026 — una mezcla de expertos de 295 mil millones de parámetros con 21B activos más un módulo Multi-Token Prediction de 3,8B, construido en 90 días bajo el ex-investigador de OpenAI Shunyu Yao tras una reconstrucción completa de la infraestructura Hunyuan. Contexto de 256K con sólido rendimiento en matemáticas, código y multilingüe.

    295B-A21B + 3.8B MTP

    TinyLlama

    Small

    TinyLlama Team

    Un modelo compacto de 1.1 mil millones de parámetros entrenado con 3 billones de tokens — mucho más datos de lo típico para su tamaño — ofreciendo un rendimiento sorprendentemente capaz para despliegue en el edge, aplicaciones móviles y entornos con recursos limitados.

    1.1B

    Vicuna

    General

    LMSYS

    Familia de modelos ajustados con instrucciones de LMSYS en tamaños de 7B, 13B y 33B, ajustados desde Llama con conversaciones de ShareGPT y ampliamente reconocidos por ser pioneros en la metodología de evaluación de chatbots de código abierto.

    7B13B33B

    Yi

    Multilingual

    01.AI

    Familia de modelos bilingües chino-inglés de 01.AI disponible en tamaños de 6B, 9B y 34B, conocida por su fuerte rendimiento en benchmarks tanto de chino como de inglés con excelentes capacidades de seguimiento de instrucciones.

    6B9B34B

    Zephyr

    General

    HuggingFace

    Modelo de 7 mil millones de parámetros de HuggingFace ajustado desde Mistral 7B usando optimización de preferencia directa destilada (dDPO), demostrando que las técnicas de alineamiento pueden producir modelos de chat altamente capaces sin datos de preferencia humana.

    7B