Goose + Ertas
Construye agentes de codificación con Goose — el agente open source de Block que se ejecuta en el escritorio con herramientas extensibles, configurable para llamar a modelos de código entrenados con Ertas que se ejecutan localmente para automatización de ingeniería sin coste.
Overview
Goose es el agente de codificación open source de Block, originalmente desarrollado dentro de la ingeniería de Cash App y Square y lanzado a la comunidad más amplia en 2025. Está diseñado para ejecutarse localmente en la máquina de un desarrollador, conectarse a los modelos que el usuario prefiera y automatizar tareas de ingeniería a través de un sistema extensible de herramientas basado en el Model Context Protocol (MCP). Goose se posiciona directamente contra competidores de código cerrado como Cursor y Windsurf — misma propuesta de valor de agente de codificación, pero open source y bring-your-own-model.
Los rasgos definitorios del framework son la extensibilidad y la agnosticidad de modelo. Las herramientas de Goose (llamadas "extensiones") son servidores MCP, lo que significa que cualquier herramienta compatible con MCP — acceso al sistema de archivos, APIs de GitHub, integración con JIRA, herramientas personalizadas de la empresa — puede añadirse al agente sin modificar Goose en sí. La capa de modelo es configurable entre Anthropic, OpenAI, Google, AWS Bedrock, Databricks y cualquier endpoint compatible con OpenAI, incluyendo servidores locales de Ollama y vLLM.
Para equipos que quieren productividad estilo Cursor sin los costes de suscripción por puesto y sin enviar su base de código a una API de terceros, Goose es la ruta open source más creíble. La combinación de extensibilidad MCP, flexibilidad de modelo y despliegue nativo de escritorio la hace particularmente atractiva para organizaciones de ingeniería con fuertes requisitos de confidencialidad de código.
How Ertas Integrates
Los modelos de código entrenados con Ertas funcionan con Goose a través de su proveedor de modelo compatible con OpenAI. Después de ajustar un modelo especializado en código en Studio (Qwen3-Coder-Next, CodeLlama, StarCoder o una base personalizada) y exportar a GGUF, lo sirves vía Ollama o vLLM y configuras Goose para llamar a tu endpoint. El bucle de agente de codificación de Goose, las extensiones MCP y las llamadas a herramientas se ejecutan todas contra tu modelo ajustado.
La combinación es particularmente valiosa para equipos de ingeniería con patrones específicos de su base de código. Un modelo de código de propósito general produce código que sigue convenciones genéricas; un modelo entrenado con Ertas cuyos datos de entrenamiento incluyen el código real del equipo, las pruebas y los patrones de revisión produce código que encaja con el estilo de la base de código, usa las bibliotecas internas de la base de código correctamente y sigue las convenciones específicas de pruebas del equipo. Para equipos con código interno sustancial, la diferencia de productividad es significativa — los autocompletados y el código generado por agentes que coinciden con los patrones locales reducen la carga de revisión y mejoran las tasas de merge.
Para empresas que necesitan herramientas de desarrollo on-premise por razones regulatorias o de protección de propiedad intelectual, Goose + modelo entrenado con Ertas en infraestructura local elimina la dependencia de la nube por completo. No sale código del edificio, no se facturan tokens de API, y el agente mejora con el tiempo a medida que las trazas del equipo se retroalimentan en Studio para fine-tuning incremental.
Getting Started
- 1
Ajusta un modelo de código en Ertas Studio
Usa una base especializada en código (Qwen3-Coder-Next, CodeLlama, Devstral 2). Entrena con tu base de código, bibliotecas internas, patrones de pruebas e historial de revisión de código. Studio maneja el formato de entrenamiento de tokens de código de forma nativa.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve vía Ollama o vLLM en una máquina de desarrollo, servidor de build o host GPU compartido. Goose llama a cualquier endpoint compatible con OpenAI.
- 3
Instala Goose y configura el proveedor
Instala el cliente de escritorio de Goose. En la configuración, establece el proveedor a 'openai' con la URL base apuntando a tu endpoint de inferencia de Ertas y el nombre de tu modelo.
- 4
Añade extensiones MCP para tus herramientas
Las herramientas de Goose son servidores MCP. Añade extensiones de sistema de archivos, GitHub, JIRA y herramientas personalizadas de la empresa. Cada una se configura independientemente y el agente las recoge automáticamente.
- 5
Usa Goose para tareas de codificación y retroalimenta las trazas
Ejecuta Goose contra tareas de ingeniería: refactorización, escritura de pruebas, corrección de bugs, revisión de código. Los datos de trazado capturan los patrones que valora tu equipo, que se retroalimentan en la siguiente ronda de fine-tuning de Studio.
# ~/.config/goose/config.yaml — point Goose at your Ertas-trained code model
provider: openai
model: ertas-codebase-specialist-14b
openai:
base_url: http://localhost:11434/v1
api_key: not-needed
extensions:
- name: developer
type: builtin # filesystem, shell, etc.
- name: github
type: stdio
cmd: npx
args: ["-y", "@modelcontextprotocol/server-github"]
env:
GITHUB_TOKEN: ${GITHUB_TOKEN}
- name: company-jira
type: sse
url: http://internal-tools/mcp/jira/sse
# Run from terminal:
# goose session --name "feature-XYZ"
# > Add a rate limiter to the public API endpoints. Follow our middleware patterns.Benefits
- Agente de codificación open source — sin costes de suscripción por puesto
- Bring-your-own-model — funciona con cualquier endpoint compatible con OpenAI
- Extensibilidad basada en MCP — añade cualquier herramienta de empresa sin modificar Goose
- Nativo de escritorio — tu código permanece en tu máquina
- Se combina naturalmente con modelos de código ajustados para competencia específica de la base de código
- Buen ajuste para empresas con requisitos de confidencialidad de código o protección de IP
- Desarrollo activo respaldado por la inversión en ingeniería de Block
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
From Cursor to Production: Deploying AI Features Without Vendor Lock-In
Fine-Tuning for Tool Calling: How to Build Reliable AI Agents with Small Models
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
Aider
Continue.dev
Cursor
Ollama
Windsurf
Ertas for SaaS Product Teams
Ertas for Code Generation
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.