Microsoft Agent Framework + Ertas
Construye agentes en producción sobre Microsoft Agent Framework — el sucesor liberado en GA de AutoGen y Semantic Kernel, con orquestación de calidad empresarial y soporte completo para modelos locales entrenados con Ertas.
Overview
Microsoft Agent Framework es el sucesor unificado de AutoGen y Semantic Kernel, lanzado como RC1.0 en febrero de 2026 y alcanzando disponibilidad general con la versión 1.0 el 3 de abril de 2026. El lanzamiento v1.3.0 de principios de mayo de 2026 añadió habilidades basadas en clases, proveedores de contexto de harness experimentales, defensas contra inyección de prompts y soporte expandido para OpenAI / Anthropic / Foundry, junto con documentación publicada de flujos de trabajo durables. Consolida los patrones de conversación multi-agente de AutoGen con las primitivas de orquestación de Semantic Kernel en un único framework con runtimes de .NET, Python y TypeScript. La dirección públicamente declarada por Microsoft es que AutoGen está en modo de mantenimiento y el desarrollo nuevo debería apuntar a Microsoft Agent Framework — convirtiéndolo en el stack de agentes canónico de Microsoft de aquí en adelante.
La arquitectura del framework toma de ambos predecesores. De AutoGen hereda el patrón de conversación multi-agente: agentes con roles distintos se comunican a través de mensajes estructurados y llegan a resultados a través del diálogo. De Semantic Kernel hereda la abstracción del planner, el ecosistema de conectores y la integración estrecha con el stack empresarial de Microsoft (Microsoft 365, Azure AI, Power Platform). El resultado es un framework que encaja limpiamente en arquitecturas empresariales centradas en Microsoft mientras permanece lo suficientemente flexible como para alojar cualquier proveedor LLM sobre su abstracción de modelo.
El framework admite cualquier endpoint compatible con OpenAI como proveedor de modelo, lo que hace que los modelos locales auto-hospedados y ajustados sean ciudadanos de primera clase junto a Azure OpenAI y el catálogo más amplio de Azure AI Foundry. Para equipos ya invertidos en herramientas de Microsoft — Visual Studio, Azure DevOps, Microsoft 365 — este es el camino de menor fricción a agentes en producción que no dependen de la economía de las APIs en la nube.
How Ertas Integrates
Los modelos entrenados con Ertas se integran con Microsoft Agent Framework a través de su proveedor compatible con OpenAI. Después de ajustar en Studio y exportar a GGUF, sirves el modelo a través de Ollama, vLLM o Ertas Cloud, luego configuras el `OpenAIChatClient` del framework (o el equivalente en .NET / TypeScript) con la URL de tu endpoint y una clave API de marcador de posición. Las abstracciones de agente, la orquestación multi-agente y los conectores del stack de Microsoft funcionan todos transparentemente contra tu modelo ajustado.
La combinación es particularmente relevante para empresas que quieren las herramientas de desarrollo y el ecosistema de conectores de Microsoft sin los costes por token de Azure OpenAI a escala. Microsoft Agent Framework + modelos entrenados con Ertas + inferencia on-premise produce un stack de agentes que encaja en los Acuerdos Empresariales de Microsoft existentes mientras mantiene los costes de inferencia fijos y predecibles. Para aplicaciones agénticas que manejan altos volúmenes de llamadas — soporte al cliente, recuperación de conocimiento interno, procesamiento de documentos — esto puede invertir la economía por tarea en 10–100x.
Para equipos que migran desde AutoGen, el framework proporciona un camino de migración documentado. Las conversaciones multi-agente existentes de AutoGen se portan a Microsoft Agent Framework con cambios en su mayoría mecánicos, y el proveedor de modelo subyacente puede ser intercambiado de Azure OpenAI a un modelo local entrenado con Ertas en el mismo paso de migración. Este es a menudo el momento adecuado para convertir los costes de API por token en costes de cómputo por VM como parte de un esfuerzo más amplio de modernización de plataforma.
Getting Started
- 1
Ajusta un modelo de dominio en Ertas Studio
Entrena con datos que capturen los patrones específicos de tu empresa — terminología, convenciones de documentos, esquemas de herramientas internas. El formato de datos de Studio funciona con trazas de conversación multi-agente de despliegues existentes de AutoGen o Semantic Kernel.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve vía Ollama, vLLM o Ertas Cloud. Microsoft Agent Framework llama a cualquier endpoint que exponga la API estándar de chat-completion.
- 3
Instala Microsoft Agent Framework
Instala el framework en tu lenguaje de elección (.NET vía NuGet, Python vía pip, TypeScript vía npm). Los tres runtimes comparten las mismas abstracciones de agente y orquestación.
- 4
Configura el cliente del modelo y define los agentes
Crea un `OpenAIChatClient` apuntado a tu endpoint de inferencia de Ertas. Define agentes usando la abstracción de agente del framework con roles, instrucciones y herramientas.
- 5
Orquesta con patrones incorporados o flujos de trabajo personalizados
Usa los patrones de orquestación incorporados del framework (secuencial, group chat, jerárquico) o construye flujos de trabajo personalizados. Los conectores de Microsoft 365, las integraciones de Power Platform y Azure AI Search funcionan transparentemente contra el modelo local.
from agent_framework import ChatAgent, OpenAIChatClient, GroupChat
from agent_framework.tools import function_tool
# Apunta el framework a tu modelo entrenado con Ertas servido vía Ollama
client = OpenAIChatClient(
base_url="http://localhost:11434/v1",
api_key="not-needed",
model="ertas-finance-ops-14b",
)
@function_tool
async def fetch_invoice(invoice_id: str) -> dict:
"""Look up an invoice from the finance system."""
return await finance_api.get_invoice(invoice_id)
@function_tool
async def approve_payment(invoice_id: str, amount: float) -> dict:
"""Approve and queue a payment."""
return await finance_api.approve(invoice_id, amount)
# Define agentes especializados
auditor = ChatAgent(
name="Auditor",
client=client,
instructions="You verify invoice details and flag anomalies.",
tools=[fetch_invoice],
)
approver = ChatAgent(
name="Approver",
client=client,
instructions="You approve payments after the auditor verifies them.",
tools=[approve_payment],
)
# Group chat multi-agente
chat = GroupChat(agents=[auditor, approver])
result = await chat.run("Process invoice INV-2026-0512 — verify and approve if valid.")Benefits
- Liberado en GA — sucesor de AutoGen y Semantic Kernel con soporte a largo plazo de Microsoft
- Los runtimes .NET, Python y TypeScript comparten abstracciones unificadas
- Integración nativa con Microsoft 365, Azure AI y Power Platform
- Patrones de orquestación incorporados: secuencial, group chat, multi-agente jerárquico
- Funciona con cualquier endpoint compatible con OpenAI — Azure OpenAI, OpenAI, modelos locales entrenados con Ertas
- El camino de migración desde conversaciones multi-agente de AutoGen está documentado y es mecánico
- Tracing de calidad empresarial, evaluación e integración con Azure AI Foundry
Related Resources
Fine-Tuning
Function Calling
Inference
Fine-Tuned Models for CrewAI: Multi-Agent Workflows Without API Costs
Agentic AI On-Premise: Enterprise Deployment Without Cloud Dependency
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
AutoGen
LangGraph
Ollama
OpenAI Agents SDK
vLLM
Ertas for SaaS Product Teams
Ertas for AI Automation Agencies
Ertas for Compliance Report Generation
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.