OpenAI Agents SDK + Ertas

    Construye agentes con el Agents SDK oficial de OpenAI — un framework mínimo y componible que funciona igual de bien con APIs de OpenAI y modelos auto-hospedados entrenados con Ertas vía endpoints compatibles con OpenAI.

    Overview

    El OpenAI Agents SDK es el framework Python oficial de OpenAI para construir agentes, lanzado como sucesor del proyecto experimental Swarm. Es deliberadamente mínimo — unas pocas primitivas centrales (Agent, Tool, Handoff, Runner) que se componen en flujos de trabajo agénticos arbitrariamente complejos sin la sobrecarga conceptual de los frameworks más antiguos. El SDK está documentado y soportado como una parte de primera clase del ecosistema de OpenAI y se entrega con integraciones incorporadas para tracing, evaluación y la API OpenAI Responses. El lanzamiento v0.17.0 del 7 de mayo de 2026 actualizó el modelo predeterminado de RealtimeAgent a `gpt-realtime-2` y continuó la cadencia aproximadamente quincenal del SDK — una línea base útil al fijar la versión del SDK en producción.

    La elección de diseño definitoria del framework es que *no* te obliga a usar los modelos de OpenAI. El Agents SDK acepta cualquier modelo accesible a través de una API compatible con OpenAI, lo que incluye Ollama, vLLM, LM Studio Server, el servidor HTTP de llama.cpp y la mayoría de los runtimes modernos de inferencia auto-hospedados. Esto convierte al SDK en un punto de entrada particularmente atractivo para equipos que quieren la experiencia de desarrollador y las herramientas de OpenAI pero planean ejecutarse sobre modelos locales o ajustados en producción.

    El SDK también es amigable con TypeScript a través de su paquete complementario `@openai/agents`, que refleja la API de Python y está diseñado para conectarse a los mismos backends. Para equipos que construyen sobre Vercel AI SDK, Next.js o React Native — el ecosistema JavaScript en el que la mayoría de los desarrolladores de aplicaciones móviles ya trabajan — el OpenAI Agents SDK es uno de los frameworks de agentes Python-o-TypeScript más accesibles en 2026.

    How Ertas Integrates

    Los modelos entrenados con Ertas funcionan con el OpenAI Agents SDK a través de la configuración estándar de modelo del framework. Después de ajustar en Studio y exportar a GGUF, sirves el modelo a través de Ollama, vLLM o Ertas Cloud, luego configuras `OpenAIChatCompletionsModel` (o `OpenAIResponsesModel`) del SDK con la URL de tu endpoint y una clave API de marcador de posición. Cada agente, cada handoff y cada llamada a herramienta ahora se ejecuta contra tu modelo ajustado.

    El diseño ligero del SDK encaja particularmente bien con la historia de control de costes que les importa a los clientes de Ertas. El Agents SDK fue diseñado bajo la suposición de que los agentes hacen muchas llamadas al modelo por tarea — que es precisamente la razón por la que el precipicio de costes agéntico afecta tan duramente a los desarrolladores de aplicaciones móviles. Al cambiar el modelo subyacente de una llamada a una API frontier a un modelo local ajustado, la economía por tarea pasa de costes de API que escalan con los usuarios a costes fijos de inferencia que no lo hacen. El SDK no cambia de forma cuando intercambias modelos; solo cambia la factura.

    Para observabilidad en producción, el sistema de tracing del SDK (que registra cada llamada al modelo, invocación de herramienta y handoff) funciona de forma transparente independientemente de dónde se sirva el modelo. Los equipos pueden desarrollar contra los modelos hospedados de OpenAI en desarrollo, enviar modelos entrenados con Ertas en producción e inspeccionar ambos con las mismas herramientas — útil tanto para depuración como para construir los conjuntos de datos de trazas de producción que se retroalimentan en Studio para fine-tuning incremental.

    Getting Started

    1. 1

      Ajusta tu modelo específico de tarea en Ertas Studio

      Entrena con datos que capturen los patrones de razonamiento esperados de tu agente y las trazas de uso de herramientas. El OpenAI Agents SDK llama a los modelos de la misma manera que la API de OpenAI, así que cualquier formato de datos que funcione para fine-tuning de OpenAI funciona para Studio.

    2. 2

      Despliega en un endpoint compatible con OpenAI

      Exporta a GGUF y sirve vía Ollama, vLLM o Ertas Cloud. El SDK llama a cualquier endpoint que exponga la API estándar de chat-completion o responses.

    3. 3

      Instala el OpenAI Agents SDK y configura el modelo

      Instala `openai-agents` (Python vía pip) o `@openai/agents` (TypeScript vía npm). Crea un Agent con un modelo configurado para apuntar a tu endpoint de inferencia de Ertas a través del parámetro model_settings.

    4. 4

      Define herramientas y handoffs

      Añade funciones Python o TypeScript como herramientas usando el decorador @function_tool del SDK. Define handoffs a otros agentes para flujos de trabajo multi-agente. El SDK maneja el bucle de orquestación automáticamente.

    5. 5

      Ejecuta el agente con tracing incorporado

      Llama a `Runner.run_sync()` (o sus variantes async/streaming) con tu entrada. El sistema de tracing del SDK registra cada paso. Usa los datos de trazas tanto para depuración como como entrada a Studio para mejora continua del modelo.

    python
    from agents import Agent, Runner, function_tool
    from agents.models import OpenAIChatCompletionsModel
    from openai import AsyncOpenAI
    
    # Apunta el SDK a tu modelo entrenado con Ertas servido vía Ollama
    client = AsyncOpenAI(
        base_url="http://localhost:11434/v1",
        api_key="not-needed",
    )
    
    model = OpenAIChatCompletionsModel(
        model="ertas-mobile-assistant-4b",
        openai_client=client,
    )
    
    @function_tool
    async def search_user_calendar(user_id: str, date: str) -> list[dict]:
        """Look up calendar events for a user on a given date."""
        return await calendar_api.events(user_id, date)
    
    @function_tool
    async def book_meeting(user_id: str, time: str, duration_min: int) -> dict:
        """Book a meeting at the requested time."""
        return await calendar_api.create(user_id, time, duration_min)
    
    scheduling_agent = Agent(
        name="Scheduling Assistant",
        model=model,
        instructions="Help the user check availability and book meetings.",
        tools=[search_user_calendar, book_meeting],
    )
    
    # Ejecuta con tracing incorporado
    result = Runner.run_sync(
        scheduling_agent,
        input="Find me a 30-minute slot tomorrow afternoon and book it with the design team.",
    )
    print(result.final_output)
    Construye un agente de programación de calendario con el OpenAI Agents SDK y un modelo de 4B entrenado con Ertas. El mismo código funciona contra los modelos hospedados de OpenAI para desarrollo y contra tu modelo local en producción.

    Benefits

    • Diseño ligero y componible — sobrecarga conceptual mínima
    • Agnóstico al modelo por defecto — funciona con cualquier endpoint compatible con OpenAI
    • Compañero TypeScript de primera clase (@openai/agents) para proyectos JavaScript
    • Tracing, evaluación y primitivas de handoff incorporados
    • Reemplazo directo para los modelos hospedados de OpenAI con alternativas auto-hospedadas entrenadas con Ertas
    • Diseñado para el caso de uso del precipicio de costes agéntico — funciona igual ya sea que pagues por token o ejecutes localmente
    • Calidad de producción con el soporte de herramientas de OpenAI detrás

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.