Google ADK + Ertas

    Construye agentes en producción con el Agent Development Kit de Google — framework multilenguaje (Python/Java/Go) con integraciones de primera clase con GCP y soporte completo para modelos locales entrenados con Ertas.

    Overview

    Google ADK (Agent Development Kit) es el framework de agentes open source de Google, lanzado en 2025 y mantenido como el stack de agentes canónico para el ecosistema de Google Cloud y Vertex AI. Es inusual entre los frameworks de agentes por ofrecer soporte de runtime multilenguaje: Python, Java y Go exponen todos las mismas abstracciones de agente, lo que hace de ADK una opción natural para empresas con stacks de backend heterogéneos. Para mayo de 2026 el framework había superado las 17.000 estrellas en GitHub y se estaba usando activamente en los propios productos de Google y en despliegues de clientes ejecutándose en Vertex AI Agent Builder.

    El diseño del framework se centra en tres abstracciones: agentes (actores impulsados por LLM), herramientas (funciones tipadas o servicios que los agentes pueden llamar) y flujos de trabajo (patrones estructurados como secuencial, paralelo y bucle). Los conectores integrados cubren Google Workspace, Vertex AI Search, BigQuery y el ecosistema de conectores de Google Cloud. ADK también está estrechamente integrado con Vertex AI Agent Builder, la plataforma de agentes alojada de Google Cloud, pero el SDK open source es totalmente utilizable de forma independiente para despliegues autoalojados.

    ADK admite cualquier endpoint LLM compatible con OpenAI como proveedor de modelo. Si bien la historia de primera clase del framework es Gemini y Vertex AI Model Garden, los equipos que quieren la experiencia de desarrollador de ADK y el ecosistema de conectores de Google con modelos autoalojados pueden configurar el proveedor LiteLLM para llamar a cualquier endpoint — incluyendo modelos entrenados con Ertas servidos vía Ollama, vLLM o Ertas Cloud.

    How Ertas Integrates

    Los modelos entrenados con Ertas funcionan con Google ADK a través de su abstracción de modelo basada en LiteLLM. Después de ajustar en Studio y exportar a GGUF, sirves el modelo vía Ollama, vLLM o Ertas Cloud, luego configuras el `LlmAgent` de ADK con el proveedor LiteLLM apuntando a tu endpoint. Las abstracciones de agente, los patrones de flujo de trabajo y el ecosistema de conectores de Google funcionan transparentemente contra tu modelo ajustado.

    La combinación es particularmente relevante para organizaciones con compromisos en Google Cloud que no quieren que su factura por token de Vertex AI escale con los usuarios. ADK + modelo entrenado con Ertas + inferencia on-premise produce un stack de agentes que encaja en arquitecturas GCP existentes (BigQuery, Vertex AI Search, conectores de Workspace) mientras controla los costes de inferencia. Para cargas de trabajo agénticas de alto volumen — soporte al cliente interno, procesamiento de documentos, análisis de datos — esto puede invertir la economía por tarea drásticamente.

    Para despliegues multilenguaje, la paridad Python/Java/Go de ADK es inusualmente valiosa. Los equipos pueden ajustar en Studio (que es agnóstico al lenguaje), servir vía un único endpoint de inferencia, y luego desplegar agentes ADK en cualquier runtime que encaje con sus servicios existentes. Un backend Java puede usar el mismo modelo ajustado que un flujo de trabajo de ciencia de datos en Python que una herramienta de infraestructura en Go.

    Getting Started

    1. 1

      Ajusta tu modelo de dominio en Ertas Studio

      Entrena con datos que capturen tu dominio, esquemas de herramientas y patrones de razonamiento. Studio funciona con cualquier arquitectura de modelo base compatible con las APIs de servicio compatibles con OpenAI a las que llama ADK.

    2. 2

      Despliega en un endpoint compatible con OpenAI

      Exporta a GGUF y sirve vía Ollama, vLLM o Ertas Cloud. ADK llama al endpoint a través del adaptador compatible con OpenAI de LiteLLM.

    3. 3

      Instala Google ADK y configura el modelo

      Instala google-adk en el lenguaje de tu elección. Crea un `LlmAgent` configurado con el proveedor LiteLLM y la URL de tu endpoint.

    4. 4

      Define herramientas y flujos de trabajo

      Añade herramientas como funciones tipadas o conectores de servicio. Compón en flujos de trabajo de ADK (secuencial, paralelo, bucle) o ejecuta un solo LlmAgent. Los conectores de GCP (BigQuery, Vertex Search, Workspace) funcionan transparentemente.

    5. 5

      Ejecuta autoalojado o despliega en Agent Builder

      Ejecuta agentes en tu propia infraestructura o despliega en Vertex AI Agent Builder. Ambas rutas funcionan con inferencia autoalojada; el proveedor de modelos sigue apuntando a tu endpoint.

    python
    from google.adk.agents import LlmAgent
    from google.adk.models.lite_llm import LiteLlm
    from google.adk.tools import FunctionTool
    
    # Point ADK at your Ertas-trained model served via Ollama
    model = LiteLlm(
        model="openai/ertas-data-analyst-14b",
        base_url="http://localhost:11434/v1",
        api_key="not-needed",
    )
    
    def query_bigquery(sql: str) -> dict:
        """Run a SQL query against the analytics dataset."""
        return bq_client.query(sql).to_dict()
    
    def write_summary(text: str, recipient: str) -> str:
        """Send a summary email through Workspace."""
        return workspace_client.send_email(recipient, text)
    
    agent = LlmAgent(
        name="Data Analyst",
        model=model,
        instructions="You answer business questions by querying BigQuery and summarizing findings.",
        tools=[
            FunctionTool(query_bigquery),
            FunctionTool(write_summary),
        ],
    )
    
    response = agent.run("What were Q4 conversion rates by acquisition channel? Email the summary to ops@company.com.")
    Construye un agente analista de datos con Google ADK respaldado por un modelo de 14B entrenado con Ertas, con conectores de BigQuery y Workspace gestionados por las herramientas de primera parte de ADK.

    Benefits

    • Runtime multilenguaje: Python, Java, Go comparten abstracciones de agente unificadas
    • Integraciones de Google Cloud de primera clase: BigQuery, Vertex Search, conectores de Workspace
    • SDK open source con plataforma gestionada opcional (Vertex AI Agent Builder)
    • Patrones de flujo de trabajo: orquestación multi-agente secuencial, paralela, bucle
    • Funciona con cualquier modelo compatible con OpenAI — Gemini, OpenAI, modelos locales entrenados con Ertas
    • Buen ajuste para empresas con compromisos en Google Cloud y stacks de backend heterogéneos

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.