Los modelos de pesos abiertos pequeños más potentes para despliegue en dispositivos, en el edge y en hardware de consumo en 2026 — clasificados por calidad en escalas de 4B, 7B y 14B parámetros para inferencia local en teléfonos, portátiles y GPUs de escritorio.
By HardwareUpdated 2026-04-305 picks
Introduction
Los LLMs pequeños para despliegue local han sido la categoría de modelos de pesos abiertos que más ha mejorado en 2025-2026. Hace dos años, cualquier cosa por debajo de 7B parámetros producía resultados que apenas seguían instrucciones básicas. Hoy, los modelos de 2B-4B entregan rutinariamente comportamiento útil de chat, resumen y uso de herramientas — y los modelos creíbles más pequeños (Gemma 4 e2b, Qwen 3 0,6B, SmolLM) llegan al despliegue en teléfono y embebido.
El LLM pequeño adecuado depende de tu restricción de hardware. El despliegue en teléfono (≤4GB de memoria) exige modelos por debajo de 2B parámetros efectivos. El despliegue en portátil (8-16GB de memoria) abre la clase de 4B-8B. El escritorio con GPU de consumo (16-24GB de VRAM) llega al territorio de 14B donde vive Phi-4. Esta clasificación cubre cada tramo con nuestras mejores opciones.
Las variantes edge de Gemma 4 son los modelos pequeños de pesos abiertos más fuertes de 2026. La e2b (~2B efectivos) en Q4_K_M ocupa aproximadamente 1,5GB — cabe en teléfonos, dispositivos embebidos y cualquier sistema con 4GB+ de memoria — y soporta de forma única entrada de imagen a pesar de su tamaño reducido. La e4b (~4B efectivos) extiende la calidad aún más manteniéndose desplegable en portátil. Ambas se publican bajo Apache 2.0 (la primera generación de Gemma con esta licencia), lo que simplifica el despliegue comercial. Para chat móvil, asistentes en el dispositivo y aplicaciones de IA basadas en cámara, ninguna otra familia de pesos abiertos iguala actualmente a la e2b en la escala de 2B.
Strengths
La e2b con ~1,5GB cabe en teléfonos y en cualquier dispositivo con 4GB+ de memoria
Multimodal nativa — incluso la variante de 2B acepta entrada de imagen
Licencia Apache 2.0 (nueva en Gemma 4) — sin restricciones comerciales
Soporte de primer nivel para MLX en despliegues con Apple Silicon
Trade-offs
No iguala a modelos mayores (8B+) en tareas de razonamiento complejo
El soporte multimodal añade algo de complejidad de inferencia frente a modelos solo de texto
Phi-4 (14B denso) de Microsoft es el modelo pequeño de pesos abiertos más fuerte en la clase de 14B. Inusualmente para su número de parámetros, compite con modelos mucho mayores en benchmarks de matemáticas y razonamiento sobre código gracias a una cuidadosa curación de datos de entrenamiento sintéticos. La licencia MIT es totalmente permisiva, y el tamaño de 14B cabe en una sola GPU de 24GB en precisión completa o en una GPU de 12GB en Q4_K_M (~8GB). Para portátiles con GPU dedicada y despliegues de escritorio modernos, Phi-4 alcanza el equilibrio ideal entre capacidad y eficiencia de recursos.
Strengths
Licencia MIT — totalmente permisiva comercialmente
Sólido razonamiento matemático y de código para 14B parámetros
Las variantes Phi-4-mini (3,8B) y phi-4-multimodal (5,6B) extienden la familia
Las variantes ajustadas Phi-4-reasoning extienden la especialización STEM
Trade-offs
14B es demasiado grande para teléfonos o dispositivos con memoria limitada
Los datos de entrenamiento sintéticos pesados introducen algunos artefactos en el lenguaje informal
Cobertura entre tamaños: Más opciones de variantes
Las variantes pequeñas de Qwen 3 (0,6B, 1,7B, 4B, 8B) cubren el espectro completo de despliegues de modelos pequeños mejor que cualquier otra familia. La variante de 0,6B permite despliegue en teléfono al que ni siquiera Gemma 4 e2b llega en algunos entornos restringidos. Las variantes de 4B y 8B son la opción de trabajo para despliegues de clase portátil y de escritorio de gama de entrada. La licencia Apache 2.0, junto con una amplia cobertura multilingüe (119 idiomas), las hace particularmente atractivas para productos internacionales orientados al consumidor.
Strengths
La cobertura más amplia de variantes, desde 0,6B (móvil) hasta 8B (escritorio)
Licencia Apache 2.0 — totalmente comercial
Cobertura multilingüe en 119 idiomas en cada tamaño
Modo de pensamiento híbrido en tamaños más pequeños (1,7B+) que añade capacidad de razonamiento
Trade-offs
Las variantes más pequeñas (0,6B, 1,7B) van por detrás de modelos pequeños especializados en algunas tareas
El soporte multimodal requiere cambiar a Qwen3-VL — no está en los modelos pequeños base
Llama 3 8B es la opción de trabajo para despliegues locales — un modelo de la cosecha de 2024 con años de fine-tunes comunitarios, recetas de despliegue y documentación de integración a sus espaldas. La variante de 8B en Q4_K_M ocupa aproximadamente 4,5GB, cabe cómodamente en cualquier portátil moderno o GPU de consumo. Aunque no iguala la capacidad absoluta de los modelos más recientes de la clase de 8B, la madurez del ecosistema lo convierte en el camino con menos fricción hacia un despliegue local funcional para la mayoría de los equipos.
Strengths
Enorme ecosistema de fine-tunes comunitarios y guías de despliegue
Comportamiento maduro, estable y predecible en producción
Soporte de primer nivel en todos los principales frameworks de inferencia
Llama Guard 3 disponible como clasificador de seguridad complementario
Trade-offs
La Llama Community License tiene topes de uso y requisitos de atribución
Por detrás de los modelos frontera de 7B-8B de 2026 en benchmarks de capacidad absoluta
Base solo de texto — la multimodalidad requiere cambiar a Llama 3.2 Vision
Clase de tamaño más pequeña: Líder por debajo de 1B
SmolLM (Hugging Face) apunta al régimen de despliegue más pequeño — variantes de 135M, 360M y 1,7B parámetros diseñadas específicamente para entornos de muy bajos recursos. Aunque no compite con modelos mayores en capacidad absoluta, SmolLM es la opción adecuada para sistemas embebidos, inferencia en navegador y despliegues de clase microcontrolador donde incluso Gemma 4 e2b es demasiado grande. La licencia Apache 2.0 lo hace comercialmente viable.
Strengths
Las opciones de pesos abiertos más pequeñas creíbles (hasta 135M)
Licencia Apache 2.0 — totalmente comercial
Diseñado específicamente para despliegue edge / embebido
Sólido soporte de herramientas directamente desde Hugging Face
Trade-offs
Sustancialmente más débil en tareas complejas que las alternativas de 4B+
Mejor adaptado a tareas especializadas y acotadas (clasificación, extracción) que al chat abierto
Comunidad de fine-tunes limitada frente a los ecosistemas de Llama / Qwen
How We Chose
Evaluamos los LLMs pequeños en tres ejes ponderados por igual: calidad en la escala de parámetros (capacidad por parámetro, no capacidad absoluta), economía de despliegue (huella de memoria con cuantización estándar, velocidad de inferencia en hardware de consumo) y permisividad de la licencia (Apache 2.0 / MIT preferidas frente a licencias restrictivas para uso comercial). Ponderamos deliberadamente los patrones reales de despliegue local — soporte de Ollama / llama.cpp / LM Studio / MLX — más que únicamente benchmarks sintéticos.
Bottom Line
Para despliegue en teléfono y embebido, Gemma 4 e2b es la opción clara — su soporte multimodal a escala 2B es único. Para despliegue de clase portátil, Qwen 3 (variantes de 4B-8B) y Llama 3 8B son ambas opciones sólidas dependiendo de si priorizas cobertura multilingüe (Qwen) o madurez del ecosistema (Llama). Para despliegues de GPU de escritorio hasta 14B, Phi-4 ofrece una capacidad excepcional para su clase de tamaño. SmolLM llega al régimen embebido / inferencia en navegador donde los modelos mayores simplemente no caben. Como siempre, hacer fine-tuning de estos modelos pequeños para tu dominio específico en Ertas Studio amplifica sustancialmente su capacidad efectiva más allá de lo que el modelo base entrega por sí solo.