What is MCP (Model Context Protocol)?
Protocolo abierto introducido por Anthropic para conectar asistentes de IA a fuentes de datos, herramientas y sistemas externos — proporcionando una interfaz estándar que cualquier cliente de modelo puede usar para interactuar con cualquier servidor compatible con MCP.
Definition
El Model Context Protocol (MCP) es un protocolo abierto introducido por Anthropic a finales de 2024 para conectar asistentes de IA a fuentes de datos, herramientas y sistemas externos. La intención del diseño es similar a LSP (Language Server Protocol) para editores de código: en lugar de que cada cliente de IA implemente integraciones personalizadas a cada fuente de datos, MCP define un protocolo estándar donde cualquier cliente cumplidor puede hablar con cualquier servidor cumplidor.
La adopción de MCP se aceleró durante 2025 y hacia 2026, con soporte nativo agregado a Claude Desktop, Cursor, Continue, Cline, Qwen-Agent, OpenAI Agents SDK y la mayoría de los frameworks principales de agentes.
Why It Matters
Antes de MCP, cada cliente de IA requería integración personalizada a cada fuente de datos — una explosión cuadrática de trabajo de integración a medida que crecía tanto el número de clientes como el de fuentes. MCP colapsa esto a un solo protocolo estándar, lo que significa que un integrador de herramientas construye una vez y alcanza a cada cliente compatible con MCP.
Key Takeaways
- MCP es un protocolo abierto para conectar asistentes de IA a herramientas, datos y sistemas externos
- Introducido por Anthropic; ahora ampliamente adoptado en el ecosistema de asistentes y agentes de IA
- Diseñado de forma similar a LSP — un solo protocolo reemplaza N×M integraciones personalizadas
- Los servidores MCP exponen herramientas, recursos y prompts; los clientes MCP los consumen
- Soporte nativo en Claude Desktop, Cursor, Continue, Qwen-Agent, OpenAI Agents SDK y más
How Ertas Helps
Los modelos entrenados con Ertas pueden usarse como el LLM subyacente en cualquier cliente compatible con MCP. Después de ajustar tu modelo en Ertas Studio y desplegarlo via Ollama o vLLM, el modelo puede conectarse a Claude Desktop, Cursor o cualquier otra aplicación consciente de MCP — usando los formatos estándar de prompts de uso de herramientas que los servidores MCP intercambian.
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.