
Por qué los laboratorios chinos dominan ahora la IA de código abierto
Para abril de 2026, los laboratorios chinos ocupan los cinco primeros puestos de los modelos de pesos abiertos en los benchmarks agregados de inteligencia. El patrón no es accidental: refleja diferencias estratégicas, estructurales y económicas entre el desarrollo de IA en EE. UU. y en China que tardaron años en concretarse.
Si a alguien que trabajaba en infraestructura de IA a principios de 2024 le hubieras dicho que dos años después los cinco mejores modelos de pesos abiertos en cada gran benchmark de inteligencia provendrían todos de laboratorios chinos, habría sido escéptico. Los nombres dominantes de pesos abiertos entonces eran Llama, Mistral y Falcon: Meta, una startup francesa y un instituto de investigación de los Emiratos Árabes Unidos. DeepSeek acababa de lanzar V2; Qwen 2 estaba emergiendo; Kimi seguía siendo un producto de Moonshot en idioma chino mayormente invisible para la comunidad de IA angloparlante.
Para abril de 2026, el panorama ha cambiado fundamentalmente. La clasificación actual de pesos abiertos:
- DeepSeek V4 Pro (BenchLM 87)
- Kimi K2.6 (BenchLM 86)
- MiMo V2.5 Pro (Xiaomi, compuesto ~86)
- GLM-5 / 5.1 (Z.ai, BenchLM 83)
- Qwen 3.5-397B-A17B (Alibaba, BenchLM ~82)
Los cinco primeros —y, de hecho, la mayor parte del top diez— son ahora exclusivamente lanzamientos de laboratorios chinos. Mistral Small 4, Hermes 4, Llama 4 y GPT-OSS de OpenAI completan el nivel superior de opciones no chinas, pero la brecha se ha ampliado de forma consistente en 2025-2026.
Esto no es un accidente ni una excepción de un trimestre. El patrón refleja diferencias estratégicas, estructurales y económicas entre el desarrollo de IA en EE. UU. y en China que tardaron años en concretarse. Entender por qué es útil para cualquiera que tome decisiones de selección de modelos en 2026 y más allá.
La elección estratégica: pesos abiertos como palanca geopolítica
El factor más importante es también el más simple: las empresas chinas de IA tratan los lanzamientos de pesos abiertos como una prioridad estratégica de formas en que las empresas estadounidenses generalmente no lo hacen. El razonamiento es geopolítico y económico. Los laboratorios chinos enfrentan desventajas estructurales en la competencia de APIs cerradas: no pueden atender fácilmente a clientes empresariales occidentales, enfrentan controles de exportación que limitan el acceso a hardware de frontera y no tienen el mismo reconocimiento de marca con compradores empresariales globales que OpenAI y Anthropic.
Los pesos abiertos invierten la palanca. Un laboratorio chino que lanza el modelo de pesos abiertos número uno se convierte en la opción por defecto para cualquier equipo que prefiera el despliegue auto-alojado, no pueda o no quiera usar APIs propietarias estadounidenses, o necesite soberanía sobre su infraestructura de IA. El modelo se despliega globalmente —incluyendo por empresas estadounidenses que evalúan alternativas auto-alojadas a OpenAI y Anthropic— y el laboratorio acumula influencia en el ecosistema que se traduce en una posición de mercado a largo plazo.
Las empresas estadounidenses de IA enfrentan el cálculo opuesto. OpenAI, Anthropic y Google generan ingresos enormes a partir de APIs cerradas y tienen incentivo limitado para lanzar modelos de pesos abiertos competitivos que canibalizarían esos ingresos. Las excepciones —la línea Llama de Meta, el lanzamiento de GPT-OSS de OpenAI en agosto de 2025— son notables específicamente porque son desviaciones de la estrategia estadounidense dominante, no la norma.
Esto no es un juicio moral en ninguna dirección. Ambas estrategias tienen sentido dadas las posiciones competitivas respectivas. Pero produce un patrón estructural: los laboratorios chinos invierten más agresivamente en lanzamientos de pesos abiertos, los laboratorios estadounidenses invierten más agresivamente en APIs cerradas, y la clasificación de pesos abiertos refleja esa asignación de esfuerzos.
El patrón económico: menores costes de entrenamiento
Un segundo factor es la economía del entrenamiento. El paper de DeepSeek V3 de finales de 2024 causó revuelo precisamente porque el modelo, según se informó, fue entrenado por una fracción de lo que costaron modelos occidentales comparables: alrededor de 5,6 millones de dólares según DeepSeek, comparado con estimaciones de cientos de millones para corridas de entrenamiento de clase GPT-4. Las diferencias en estructura de costes provienen de varias fuentes:
Eficiencia de ingeniería. Los laboratorios chinos se han visto forzados a optimizar duro en torno a restricciones que los laboratorios occidentales no enfrentan. Los controles de exportación sobre GPUs avanzadas significan que los laboratorios chinos no pueden simplemente arrojar hardware a los problemas como pueden los laboratorios de frontera occidentales. Las innovaciones arquitectónicas —Multi-Head Latent Attention de DeepSeek, los diseños MoE híbridos de Qwen, la optimización del enrutamiento de expertos de Kimi— son en parte respuestas a restricciones de hardware que los laboratorios occidentales no han tenido que sortear con ingeniería.
Curación de datos de entrenamiento. Los laboratorios chinos generalmente invierten fuertemente en la generación curada de datos sintéticos en lugar de depender principalmente de datos web públicos. El efecto acumulado es un entrenamiento más eficiente: mejor señal por token, menos repetición, mayor calidad de datos. Los laboratorios occidentales también lo hacen, pero la inversión marginal en los laboratorios chinos ha sido mayor en relación con el presupuesto total de entrenamiento.
Menores costes de oportunidad de cómputo. Un laboratorio occidental de frontera ejecutando una corrida de entrenamiento de 200 millones de dólares está renunciando a 200 millones de dólares de cómputo que de otro modo podría servir a clientes de API que pagan. Los laboratorios chinos enfrentan una economía de cómputo distinta: ecosistemas domésticos chinos de cloud y chips, inversiones en infraestructura respaldadas por el gobierno y menores costes de oportunidad para corridas de entrenamiento experimentales. Esto hace que la experimentación agresiva sea más barata en términos de valor esperado.
El resultado es que los laboratorios chinos lanzan más versiones de modelos por unidad de inversión, iteran más rápido y pueden permitirse lanzar checkpoints intermedios que los laboratorios occidentales considerarían demasiado valiosos para regalar. Qwen, DeepSeek y Kimi han mantenido cadencias de lanzamiento en 2025-2026 que los laboratorios occidentales simplemente no igualan en la categoría de pesos abiertos.
La ventaja estructural: pila doméstica de cómputo
Un tercer factor es el desarrollo de la pila doméstica china de cómputo para IA. A lo largo de 2025-2026, el desarrollo de chips chinos —Huawei Ascend, alternativas domésticas cada vez más competitivas y una pila de software que madura en torno a ellas— ha llegado al punto en que el entrenamiento a escala de frontera es factible sin dependencia primaria del hardware NVIDIA.
GLM-5, lanzado por Z.ai en febrero de 2026, fue entrenado, según se informa, en 8 chips Huawei Ascend H20. Esto no es una mera curiosidad: representa el primer modelo de pesos abiertos a escala de frontera con entrenamiento documentado en infraestructura no NVIDIA. Las implicaciones son reales: un laboratorio chino que pueda entrenar y servir modelos de frontera en hardware doméstico tiene un camino hacia adelante que las restricciones de los controles de exportación de EE. UU. no pueden interrumpir fácilmente.
Para los equipos de despliegue fuera de China, esto importa menos directamente. Pero significa que el riesgo estructural de que los lanzamientos chinos de pesos abiertos se detengan repentinamente debido a controles de exportación o acceso a chips ha disminuido. El ecosistema chino de pesos abiertos en 2026 es más resiliente que en 2024, y la trayectoria apunta a más independencia de las cadenas de suministro de cómputo occidentales, no menos.
El patrón de talento: trayectorias profesionales distintas
El mercado laboral para investigadores de IA en China es fundamentalmente distinto del estadounidense. En EE. UU., los principales investigadores de IA enfrentan un mercado competitivo dominado por laboratorios de frontera (OpenAI, Anthropic, Google DeepMind) más un ecosistema de startups bien financiadas. Las expectativas salariales son extremadamente altas; los investigadores típicamente esperan o bien una compensación sustancial en efectivo o un upside sustancial en equity.
En China, el mercado está estructurado de forma distinta. El talento principal de IA fluye a través de un menor número de empresas (Alibaba, Tencent, ByteDance, las grandes startups de IA como DeepSeek, Moonshot, Z.ai) y el techo salarial es menor en términos absolutos, aunque consideraciones de poder adquisitivo y estilo de vida hacen que la comparación sea menos limpia que lo que sugieren las cifras de titulares. El resultado es que los laboratorios chinos de IA pueden disponer de grandes equipos de investigación a costes de compensación total que los laboratorios occidentales de frontera encontrarían prohibitivos para una calidad equivalente.
Combinado con actitudes culturalmente distintas hacia la publicación abierta (los laboratorios chinos de IA generalmente publican más agresivamente que los laboratorios occidentales de frontera, en parte por visibilidad internacional), esto produce un ecosistema de investigación donde el coste marginal de los lanzamientos de pesos abiertos es menor que en EE. UU. Un laboratorio chino que lanza un modelo de pesos abiertos de frontera lo está haciendo con investigadores que, en promedio, ven la publicación abierta como una salida normal y esperada de su trabajo, no como un sacrificio de ventaja competitiva.
La implicación: un patrón persistente
La pregunta natural es si esto es una ventaja temporal o un patrón estructural. Nuestra lectura es que es estructural, al menos para los próximos años. La combinación de alineación estratégica (pesos abiertos como palanca geopolítica), estructura económica (menores costes de entrenamiento y de mano de obra), independencia de infraestructura (desarrollo de la pila doméstica de cómputo) y patrones culturales (publicación abierta más agresiva) crea una ventaja sostenida que no se revertirá en ningún ciclo único de producto.
Es improbable que las empresas estadounidenses de IA empiecen repentinamente a lanzar modelos de pesos abiertos competitivos que canibalicen sus ingresos de APIs cerradas. El lanzamiento de GPT-OSS de OpenAI en agosto de 2025 fue una desviación notable, pero específicamente posicionada como un lanzamiento sub-frontera y no como un buque insignia competitivo de pesos abiertos. La recepción de Llama 4 de Meta fue mixta y Behemoth ha sido pausado. Las condiciones estructurales que produjeron el dominio actual de los laboratorios chinos no se han revertido.
Para los equipos que toman decisiones de infraestructura en 2026, este patrón tiene implicaciones prácticas. Construir una estrategia de despliegue que dependa de que los modelos de pesos abiertos desarrollados en EE. UU. sean competitivos es cada vez más arriesgado. El caso base para los próximos 24 meses es que los lanzamientos de pesos abiertos de laboratorios chinos sigan dominando las clasificaciones, con respuestas competitivas periódicas de Mistral (en Europa), Nous Research (con fine-tunes dirigibles estilo Hermes) y lanzamientos estadounidenses notables ocasionales como GPT-OSS, pero sin un cambio sostenido en la posición global del ecosistema.
Qué significa esto para los despliegues en producción
La respuesta práctica para la mayoría de los equipos: ponerse cómodo con los modelos chinos de pesos abiertos como elección principal de infraestructura. Las licencias son ampliamente permisivas para uso comercial (Apache 2.0 o equivalente para la mayoría de los modelos insignia actuales), la infraestructura de despliegue (vLLM, Ollama, llama.cpp, TensorRT-LLM) los soporta como opciones de primera clase y la calidad del modelo es genuinamente mejor que la de las alternativas occidentales en cada escala de parámetros donde hay datos de clasificación disponibles.
Hay razones legítimas para preferir alternativas no chinas en contextos específicos: restricciones regulatorias (algunas industrias no pueden usar modelos desarrollados en China por razones de cumplimiento), preferencias de soberanía de datos (los despliegues europeos a menudo eligen Mistral específicamente por su posicionamiento en la UE) o estrategias de diversificación de la cadena de suministro que incluyen intencionadamente opciones no chinas. Estas son consideraciones válidas y seguirán impulsando una porción significativa de las decisiones de despliegue hacia Mistral, Hermes 4 y opciones similares no chinas.
Pero la opción por defecto —el modelo que eliges cuando ninguna razón estructural específica te empuja a otro lugar— probablemente debería ser una opción china de pesos abiertos en 2026. Qwen 3.6 para la mayoría de los despliegues en producción, DeepSeek V4 para despliegues en servidores multi-GPU, Kimi K2.6 para cargas agénticas de horizonte largo, MiMo V2.5 Pro para codificación agéntica. Las condiciones estructurales que produjeron este liderazgo no se revertirán pronto, y alinear tu infraestructura con esa realidad produce mejores resultados que luchar contra ella.
Reflexión final
Hay una tendencia en el comentario occidental sobre IA a enmarcar el dominio de los laboratorios chinos como alarmante o como evidencia de preocupación geopolítica. Nosotros no lo vemos así. Los lanzamientos de pesos abiertos —independientemente de su origen— ponen la infraestructura de IA a disposición de un conjunto más amplio de equipos de despliegue del que solo las APIs cerradas permitirían, y el ecosistema resultante es más sano y resiliente que uno dominado por unos pocos proveedores propietarios estadounidenses.
El hecho de que los modelos de pesos abiertos más fuertes en 2026 provengan de laboratorios chinos es resultado de dinámicas estratégicas y económicas específicas del momento actual. No es una característica permanente del ecosistema. Pero para los equipos que toman decisiones de despliegue hoy, la guía práctica es clara: las mejores opciones de pesos abiertos son los lanzamientos de laboratorios chinos, las licencias soportan el despliegue comercial y alinear tu estrategia de infraestructura con esa realidad produce mejores resultados que esperar a que los laboratorios estadounidenses cierren la brecha. Probablemente no lo harán, al menos no específicamente en el eje de pesos abiertos.
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

The 2026 Open Source AI Model Landscape
A comprehensive snapshot of the open-weight AI model ecosystem as of April 2026 — Chinese-lab dominance, MoE architectural defaults, the unified thinking-mode pattern, and what it all means for production deployments.

Mixture of Experts in 2026: From Mixtral to DeepSeek V4
MoE has become the default architecture for flagship open-weight models in 2026 — DeepSeek V4, Kimi K2.6, MiMo V2.5 Pro, GPT-OSS, Mistral Small 4 all use it. Here's why, how the design choices have evolved, and what it means for production deployments.

Open-Source Models for OpenClaw: Llama 3, Qwen 2.5, and Which to Fine-Tune
Not all open-source models work equally well as OpenClaw backends. Here's a practical comparison of Llama 3.3, Qwen 2.5, Mistral, and Phi-3 for agent tasks, with fine-tuning recommendations.