Goose + Ertas

    Construye agentes de codificación con Goose — el agente open source de Block que se ejecuta en el escritorio con herramientas extensibles, configurable para llamar a modelos de código entrenados con Ertas que se ejecutan localmente para automatización de ingeniería sin coste.

    Overview

    Goose es el agente de codificación open source de Block, originalmente desarrollado dentro de la ingeniería de Cash App y Square y lanzado a la comunidad más amplia en 2025. Está diseñado para ejecutarse localmente en la máquina de un desarrollador, conectarse a los modelos que el usuario prefiera y automatizar tareas de ingeniería a través de un sistema extensible de herramientas basado en el Model Context Protocol (MCP). Goose se posiciona directamente contra competidores de código cerrado como Cursor y Windsurf — misma propuesta de valor de agente de codificación, pero open source y bring-your-own-model.

    Los rasgos definitorios del framework son la extensibilidad y la agnosticidad de modelo. Las herramientas de Goose (llamadas "extensiones") son servidores MCP, lo que significa que cualquier herramienta compatible con MCP — acceso al sistema de archivos, APIs de GitHub, integración con JIRA, herramientas personalizadas de la empresa — puede añadirse al agente sin modificar Goose en sí. La capa de modelo es configurable entre Anthropic, OpenAI, Google, AWS Bedrock, Databricks y cualquier endpoint compatible con OpenAI, incluyendo servidores locales de Ollama y vLLM.

    Para equipos que quieren productividad estilo Cursor sin los costes de suscripción por puesto y sin enviar su base de código a una API de terceros, Goose es la ruta open source más creíble. La combinación de extensibilidad MCP, flexibilidad de modelo y despliegue nativo de escritorio la hace particularmente atractiva para organizaciones de ingeniería con fuertes requisitos de confidencialidad de código.

    How Ertas Integrates

    Los modelos de código entrenados con Ertas funcionan con Goose a través de su proveedor de modelo compatible con OpenAI. Después de ajustar un modelo especializado en código en Studio (Qwen3-Coder-Next, CodeLlama, StarCoder o una base personalizada) y exportar a GGUF, lo sirves vía Ollama o vLLM y configuras Goose para llamar a tu endpoint. El bucle de agente de codificación de Goose, las extensiones MCP y las llamadas a herramientas se ejecutan todas contra tu modelo ajustado.

    La combinación es particularmente valiosa para equipos de ingeniería con patrones específicos de su base de código. Un modelo de código de propósito general produce código que sigue convenciones genéricas; un modelo entrenado con Ertas cuyos datos de entrenamiento incluyen el código real del equipo, las pruebas y los patrones de revisión produce código que encaja con el estilo de la base de código, usa las bibliotecas internas de la base de código correctamente y sigue las convenciones específicas de pruebas del equipo. Para equipos con código interno sustancial, la diferencia de productividad es significativa — los autocompletados y el código generado por agentes que coinciden con los patrones locales reducen la carga de revisión y mejoran las tasas de merge.

    Para empresas que necesitan herramientas de desarrollo on-premise por razones regulatorias o de protección de propiedad intelectual, Goose + modelo entrenado con Ertas en infraestructura local elimina la dependencia de la nube por completo. No sale código del edificio, no se facturan tokens de API, y el agente mejora con el tiempo a medida que las trazas del equipo se retroalimentan en Studio para fine-tuning incremental.

    Getting Started

    1. 1

      Ajusta un modelo de código en Ertas Studio

      Usa una base especializada en código (Qwen3-Coder-Next, CodeLlama, Devstral 2). Entrena con tu base de código, bibliotecas internas, patrones de pruebas e historial de revisión de código. Studio maneja el formato de entrenamiento de tokens de código de forma nativa.

    2. 2

      Despliega en un endpoint compatible con OpenAI

      Exporta a GGUF y sirve vía Ollama o vLLM en una máquina de desarrollo, servidor de build o host GPU compartido. Goose llama a cualquier endpoint compatible con OpenAI.

    3. 3

      Instala Goose y configura el proveedor

      Instala el cliente de escritorio de Goose. En la configuración, establece el proveedor a 'openai' con la URL base apuntando a tu endpoint de inferencia de Ertas y el nombre de tu modelo.

    4. 4

      Añade extensiones MCP para tus herramientas

      Las herramientas de Goose son servidores MCP. Añade extensiones de sistema de archivos, GitHub, JIRA y herramientas personalizadas de la empresa. Cada una se configura independientemente y el agente las recoge automáticamente.

    5. 5

      Usa Goose para tareas de codificación y retroalimenta las trazas

      Ejecuta Goose contra tareas de ingeniería: refactorización, escritura de pruebas, corrección de bugs, revisión de código. Los datos de trazado capturan los patrones que valora tu equipo, que se retroalimentan en la siguiente ronda de fine-tuning de Studio.

    yaml
    # ~/.config/goose/config.yaml — point Goose at your Ertas-trained code model
    
    provider: openai
    model: ertas-codebase-specialist-14b
    
    openai:
      base_url: http://localhost:11434/v1
      api_key: not-needed
    
    extensions:
      - name: developer
        type: builtin  # filesystem, shell, etc.
      - name: github
        type: stdio
        cmd: npx
        args: ["-y", "@modelcontextprotocol/server-github"]
        env:
          GITHUB_TOKEN: ${GITHUB_TOKEN}
      - name: company-jira
        type: sse
        url: http://internal-tools/mcp/jira/sse
    
    # Run from terminal:
    #   goose session --name "feature-XYZ"
    #   > Add a rate limiter to the public API endpoints. Follow our middleware patterns.
    Configura Goose para usar un modelo de código de 14B entrenado con Ertas y ajustado a tu base de código, con extensiones de GitHub y JIRA de la empresa para automatización completa del flujo de trabajo de ingeniería.

    Benefits

    • Agente de codificación open source — sin costes de suscripción por puesto
    • Bring-your-own-model — funciona con cualquier endpoint compatible con OpenAI
    • Extensibilidad basada en MCP — añade cualquier herramienta de empresa sin modificar Goose
    • Nativo de escritorio — tu código permanece en tu máquina
    • Se combina naturalmente con modelos de código ajustados para competencia específica de la base de código
    • Buen ajuste para empresas con requisitos de confidencialidad de código o protección de IP
    • Desarrollo activo respaldado por la inversión en ingeniería de Block

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.