Google ADK + Ertas
使用 Google 的 Agent Development Kit 构建生产级智能体——这是一个多语言(Python/Java/Go)框架,具备一流的 GCP 集成,并完整支持 Ertas 训练的本地模型。
Overview
Google ADK(Agent Development Kit)是 Google 的开源智能体框架,于 2025 年发布,作为 Google Cloud 与 Vertex AI 生态的标准智能体技术栈维护。它在智能体框架中不同寻常之处在于提供多语言运行时支持:Python、Java 与 Go 都暴露相同的智能体抽象,这使得 ADK 天然适合后端栈异构的企业。到 2026 年 5 月,该框架的 GitHub 星标已超过 17,000,并在 Google 自家产品以及运行在 Vertex AI Agent Builder 上的客户部署中被积极使用。
该框架的设计围绕三个抽象:智能体(LLM 驱动的执行者)、工具(智能体可调用的带类型函数或服务)以及工作流(顺序、并行、循环等结构化模式)。内置连接器覆盖 Google Workspace、Vertex AI Search、BigQuery 以及 Google Cloud 连接器生态。ADK 还与 Vertex AI Agent Builder——Google Cloud 的托管智能体平台——深度集成,但开源 SDK 完全可独立用于自托管部署。
ADK 支持任何兼容 OpenAI 的 LLM 端点作为模型提供商。虽然该框架的一流故事是 Gemini 与 Vertex AI Model Garden,但希望在自托管模型上获得 ADK 开发者体验与 Google 连接器生态的团队,可以配置 LiteLLM 提供商调用任何端点——包括通过 Ollama、vLLM 或 Ertas Cloud 提供服务的 Ertas 训练模型。
How Ertas Integrates
Ertas 训练的模型通过 ADK 基于 LiteLLM 的模型抽象与 Google ADK 协同工作。在 Studio 中微调并导出为 GGUF 后,你通过 Ollama、vLLM 或 Ertas Cloud 提供服务,然后将 ADK 的 `LlmAgent` 配置为指向你的端点的 LiteLLM 提供商。智能体抽象、工作流模式与 Google 连接器生态都会针对你的微调模型透明工作。
这种组合对有 Google Cloud 承诺、又不希望按 token 计费的 Vertex AI 账单随用户数增长的组织尤其相关。ADK + Ertas 训练模型 + 本地推理产生的智能体技术栈契合现有 GCP 架构(BigQuery、Vertex AI Search、Workspace 连接器),同时控制推理成本。对于高频次的智能体工作负载——内部客户支持、文档处理、数据分析——这能戏剧性地翻转每任务的经济模型。
对于多语言部署,ADK 在 Python/Java/Go 上的对等支持异常有价值。团队可以在 Studio 中微调(Studio 与语言无关),通过单一推理端点提供服务,然后在最适合现有服务的运行时中部署 ADK 智能 体。Java 后端可以使用与 Python 数据科学工作流以及 Go 基础设施工具相同的微调模型。
Getting Started
- 1
在 Ertas Studio 中微调你的领域模型
在捕获领域知识、工具 schema 与推理模式的数据上训练。Studio 兼容任何与 ADK 调用的 OpenAI 兼容服务 API 兼容的基础模型架构。
- 2
部署到兼容 OpenAI 的端点
导出为 GGUF 并通过 Ollama、vLLM 或 Ertas Cloud 提供服务。ADK 通过 LiteLLM 的兼容 OpenAI 适配器调用该端点。
- 3
安装 Google ADK 并配置模型
在你选择的语言中安装 google-adk。创建一个配置了 LiteLLM 提供商和你的端点 URL 的 `LlmAgent`。
- 4
定义工具与工作流
将工具添加为带类型的函数或服务连接器。组合为 ADK 工作流(顺序、并行、循环)或运行单一 LlmAgent。GCP 连接器(BigQuery、Vertex Search、Workspace)透明工作。
- 5
自托管运行或部署到 Agent Builder
在你自己的基础设施中运行智能体,或部署到 Vertex AI Agent Builder。两种路径都支持自托管推理;模型提供商始终指向你的端点。
from google.adk.agents import LlmAgent
from google.adk.models.lite_llm import LiteLlm
from google.adk.tools import FunctionTool
# Point ADK at your Ertas-trained model served via Ollama
model = LiteLlm(
model="openai/ertas-data-analyst-14b",
base_url="http://localhost:11434/v1",
api_key="not-needed",
)
def query_bigquery(sql: str) -> dict:
"""Run a SQL query against the analytics dataset."""
return bq_client.query(sql).to_dict()
def write_summary(text: str, recipient: str) -> str:
"""Send a summary email through Workspace."""
return workspace_client.send_email(recipient, text)
agent = LlmAgent(
name="Data Analyst",
model=model,
instructions="You answer business questions by querying BigQuery and summarizing findings.",
tools=[
FunctionTool(query_bigquery),
FunctionTool(write_summary),
],
)
response = agent.run("What were Q4 conversion rates by acquisition channel? Email the summary to ops@company.com.")Benefits
- 多语言运行时:Python、Java、Go 共享统一的智能体抽象
- 一流的 Google Cloud 集成:BigQuery、Vertex Search、Workspace 连接器
- 开源 SDK 加可选的托管平台(Vertex AI Agent Builder)
- 工作流模式:顺序、并行、循环的多智能体编排
- 适用于任何兼容 OpenAI 的模型——Gemini、OpenAI、Ertas 训练的本地模型
- 对有 Google Cloud 承诺与异构后端栈的企业是强力契合
Related Resources
Fine-Tuning
Function Calling
Inference
Fine-Tuning for Tool Calling: How to Build Reliable AI Agents with Small Models
Agentic RAG: How to Build a Retrieval Tool Your AI Agent Discovers and Calls Automatically
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
LangGraph
Ollama
OpenAI Agents SDK
Pydantic AI
vLLM
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ertas for Internal Knowledge Bases
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.