Strands Agents + Ertas

    Construye agentes con Strands Agents — el SDK de código abierto de AWS que utiliza planificación dirigida por modelo en lugar de flujos de trabajo codificados a mano, con soporte completo para modelos locales entrenados con Ertas junto a APIs de Bedrock y Anthropic.

    Overview

    Strands Agents es el SDK de agentes de código abierto de AWS, lanzado como parte del impulso más amplio para dar a los clientes de AWS una alternativa de primera parte a LangChain y CrewAI. Su elección de diseño definitoria es apoyarse en la planificación dirigida por modelo en lugar de grafos de flujo de trabajo codificados a mano — los agentes razonan sobre qué hacer a continuación basándose en la comprensión del modelo de la tarea, con el SDK manejando la ejecución de herramientas, los reintentos y la observabilidad alrededor de ese bucle de razonamiento. Para mayo de 2026, el SDK había superado los 14M de descargas totales en menos de un año, en parte debido a su uso dentro de los propios productos de AWS (Amazon Q, AWS Glue, Amazon Connect Contact Lens). El SDK de TypeScript alcanzó la GA 1.0 el 1 de mayo de 2026, llevando paridad con el runtime de Python para entornos Node.js y de navegador — particularmente relevante para backends de aplicaciones móviles y despliegues edge de Vercel/Cloudflare.

    El diseño ligero del framework es intencional. Donde LangGraph requiere una definición de grafo por adelantado y CrewAI requiere una configuración explícita de rol/objetivo, Strands deja que el modelo descubra el flujo de trabajo en tiempo de ejecución, con el SDK proporcionando el andamiaje (llamadas a herramientas, observabilidad, reintentos) alrededor de esa toma de decisiones. Para tareas agénticas directas, esto produce menos código y un desarrollo más rápido; para flujos de trabajo altamente estructurados donde la planificación del modelo es poco confiable, los equipos pueden añadir orquestación personalizada encima.

    Strands es agnóstico al modelo. El SDK se entrega con proveedores de primera clase para Amazon Bedrock, Anthropic, OpenAI y Ollama, además de un proveedor LiteLLM genérico que se adapta a cualquier endpoint compatible con OpenAI. Para equipos que quieren la ergonomía de desarrollador y la historia de observabilidad de AWS pero planean desplegar sobre modelos auto-hospedados — por razones de coste o soberanía de datos — la integración con la inferencia entrenada con Ertas son unas pocas líneas de configuración.

    How Ertas Integrates

    Los modelos entrenados con Ertas funcionan con Strands Agents a través de su proveedor OllamaModel o su proveedor LiteLLM genérico. Después de ajustar en Studio y exportar a GGUF, sirves el modelo a través de Ollama, vLLM o Ertas Cloud, luego configuras el agente de Strands con el proveedor apropiado apuntado a tu endpoint. La planificación dirigida por modelo, la observabilidad y las primitivas de reintento funcionan todas transparentemente.

    El enfoque de planificación dirigida por modelo es particularmente potente con modelos ajustados. Un modelo de propósito general 7B–14B a menudo toma decisiones de planificación inconsistentes en tareas específicas del dominio, lo que fuerza a los equipos hacia una orquestación más explícita. Un modelo entrenado con Ertas cuyos datos de entrenamiento incluyen trazas representativas de planificación del dominio objetivo produce una planificación más consistente y competente — permitiendo que el diseño ligero de Strands se mantenga en producción en lugar de degradarse a soluciones improvisadas.

    Para equipos ya en el ecosistema de AWS que quieren controlar los costes de inferencia, Strands + modelo entrenado con Ertas en EC2 (o on-premise) produce un stack de agentes que encaja en la arquitectura de AWS mientras mantiene la economía por tarea fija. La observabilidad fluye hacia Amazon CloudWatch y AWS X-Ray; los datos de tracing se retroalimentan a Studio para fine-tuning incremental.

    Getting Started

    1. 1

      Ajusta un modelo específico de dominio en Ertas Studio

      Entrena con datos que incluyan trazas de planificación representativas de tu dominio objetivo. Strands se basa en el modelo para las decisiones de planificación, así que la calidad de los datos de entrenamiento mejora directamente la confiabilidad del agente.

    2. 2

      Despliega en un endpoint compatible con OpenAI

      Exporta a GGUF y sirve vía Ollama, vLLM o Ertas Cloud. El proveedor OllamaModel de Strands se conecta directamente; el proveedor LiteLLM se conecta a cualquier alternativa compatible.

    3. 3

      Instala Strands Agents y configura el modelo

      Instala strands-agents. Crea un Agent configurado con el proveedor OllamaModel (o LiteLLM) apuntado a tu endpoint de inferencia.

    4. 4

      Define herramientas como funciones Python tipadas

      Añade herramientas usando el decorador @tool de Strands. El diseño ligero de Strands significa poco boilerplate — la firma de la función y la docstring suelen ser suficientes para que el modelo use la herramienta correctamente.

    5. 5

      Ejecuta con observabilidad incorporada

      Llama al agente. El tracing fluye hacia AWS X-Ray (o tu backend de observabilidad). Itera sobre el comportamiento de planificación del agente inspeccionando trazas y retroalimentando a Studio para la siguiente ronda de entrenamiento.

    python
    from strands import Agent, tool
    from strands.models.ollama import OllamaModel
    
    # Apunta Strands a tu modelo entrenado con Ertas servido vía Ollama
    model = OllamaModel(
        host="http://localhost:11434",
        model_id="ertas-aws-ops-7b",
    )
    
    @tool
    def list_running_instances(region: str) -> list[dict]:
        """Return a list of running EC2 instances in a region."""
        return ec2.list_instances(region, state="running")
    
    @tool
    def stop_instance(instance_id: str) -> dict:
        """Stop an EC2 instance by ID."""
        return ec2.stop(instance_id)
    
    agent = Agent(
        model=model,
        tools=[list_running_instances, stop_instance],
        system_prompt="You manage EC2 fleets — find idle instances and stop them when asked.",
    )
    
    # Strands deja que el modelo planifique el flujo de trabajo multi-paso por sí mismo
    result = agent("Find any t3.micro instances in us-west-2 that have been idle for >24h and stop them.")
    print(result.message)
    Construye un agente de gestión de EC2 con Strands Agents y un modelo de 7B entrenado con Ertas. Strands maneja el bucle de planificación; el modelo ajustado proporciona competencia específica del dominio.

    Benefits

    • Planificación dirigida por modelo — menos código de orquestación que LangGraph o CrewAI
    • SDK ligero — sobrecarga conceptual mínima
    • Integración de primera clase con AWS — Bedrock, CloudWatch, observabilidad X-Ray
    • Soporte multi-proveedor de modelos: Bedrock, Anthropic, OpenAI, Ollama, LiteLLM genérico
    • Probado en producción en los propios productos de AWS (Amazon Q, Glue, Connect)
    • Se combina con fine-tuning de Ertas para hacer la planificación dirigida por modelo confiable en tareas de dominio

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.