Goose + Ertas

    使用 Goose 构建编码智能体——这是 Block 的开源智能体,运行在桌面端,具备可扩展工具系统,可配置为调用本地运行的 Ertas 训练代码模型,实现零成本的工程自动化。

    Overview

    Goose 是 Block 的开源编码智能体,最初在 Cash App 与 Square 工程团队内部开发,并于 2025 年发布给更广泛社区。它被设计为在开发者本机运行、连接用户偏好的任何模型,并通过基于 Model Context Protocol (MCP) 的可扩展工具系统自动化工程任务。Goose 直接对标 Cursor 与 Windsurf 等闭源竞品——同样的编码智能体价值主张,但开源、且自带模型。

    该框架的核心特征是可扩展性与模型无关性。Goose 的工具(称为 'extensions')就是 MCP 服务器,这意味着任何 MCP 兼容工具——文件系统访问、GitHub API、JIRA 集成、自定义企业工具——都可以在不修改 Goose 本身的情况下添加进来。模型层可在 Anthropic、OpenAI、Google、AWS Bedrock、Databricks 以及任何兼容 OpenAI 的端点之间配置,包括本地 Ollama 与 vLLM 服务器。

    对于希望获得 Cursor 风格生产力但不愿支付按席位订阅成本、也不愿把代码库发送给第三方 API 的团队,Goose 是最可信的开源路径。MCP 可扩展性、模型灵活性与桌面原生部署的组合,使它对有强代码保密要求的工程组织尤其有吸引力。

    How Ertas Integrates

    Ertas 训练的代码模型通过 Goose 的兼容 OpenAI 模型提供商与之协同。在 Studio 中微调代码专用模型(Qwen3-Coder-Next、CodeLlama、StarCoder 或自定义基础模型)并导出为 GGUF 后,你通过 Ollama 或 vLLM 提供服务,并将 Goose 配置为调用你的端点。Goose 的编码智能体循环、MCP 扩展与工具调用都会针对你的微调模型运行。

    这种组合对有代码库特定模式的工程团队尤其有价值。通用代码模型产出遵循通用约定的代码;而 Ertas 训练的模型——其训练数据包括团队的真实代码、测试与评审模式——产出契合代码库风格、正确使用代码库内部库、并遵循团队具体测试约定的代码。对于内部代码量大的团队,生产力差异是可观的——匹配本地模式的自动补全与智能体生成的代码减少了评审负担、提高了合并通过率。

    对于因合规或知识产权保护需要本地化开发工具的企业,Goose + Ertas 训练模型 + 本地基础设施完全消除了云依赖。代码不离开公司,没有 API token 计费,且智能体随着团队的追踪反馈到 Studio 进行增量微调而持续改进。

    Getting Started

    1. 1

      在 Ertas Studio 中微调代码模型

      使用代码专用基础模型(Qwen3-Coder-Next、CodeLlama、Devstral 2)。在你的代码库、内部库、测试模式与代码评审历史上训练。Studio 原生处理代码 token 训练格式。

    2. 2

      部署到兼容 OpenAI 的端点

      导出为 GGUF 并在开发机、构建服务器或共享 GPU 主机上通过 Ollama 或 vLLM 提供服务。Goose 可调用任何兼容 OpenAI 的端点。

    3. 3

      安装 Goose 并配置提供商

      安装 Goose 桌面客户端。在配置中将提供商设为 'openai',base URL 指向你的 Ertas 推理端点,并填入模型名称。

    4. 4

      为你的工具链添加 MCP 扩展

      Goose 的工具是 MCP 服务器。添加文件系统、GitHub、JIRA 与自定义企业工具扩展。每一个独立配置,智能体会自动识别。

    5. 5

      用 Goose 处理编码任务并把追踪反馈回去

      用 Goose 处理工程任务:重构、写测试、修 bug、代码评审。追踪数据捕获团队所重视的模式,反馈到下一轮 Studio 微调。

    yaml
    # ~/.config/goose/config.yaml — point Goose at your Ertas-trained code model
    
    provider: openai
    model: ertas-codebase-specialist-14b
    
    openai:
      base_url: http://localhost:11434/v1
      api_key: not-needed
    
    extensions:
      - name: developer
        type: builtin  # filesystem, shell, etc.
      - name: github
        type: stdio
        cmd: npx
        args: ["-y", "@modelcontextprotocol/server-github"]
        env:
          GITHUB_TOKEN: ${GITHUB_TOKEN}
      - name: company-jira
        type: sse
        url: http://internal-tools/mcp/jira/sse
    
    # Run from terminal:
    #   goose session --name "feature-XYZ"
    #   > Add a rate limiter to the public API endpoints. Follow our middleware patterns.
    将 Goose 配置为使用一个在你代码库上微调的 Ertas 训练 14B 代码模型,搭配 GitHub 与企业 JIRA 扩展,实现完整的工程工作流自动化。

    Benefits

    • 开源编码智能体——无按席位订阅成本
    • 自带模型——适用于任何兼容 OpenAI 的端点
    • 基于 MCP 的可扩展性——添加任何企业工具无需修改 Goose
    • 桌面原生——你的代码留在你自己的机器上
    • 天然搭配微调代码模型,获得代码库特定胜任力
    • 对有代码保密或知识产权保护要求的企业是强力契合
    • 由 Block 工程投入支持的活跃开发

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.