Claude Agent SDK + Ertas
使用 Claude Agent SDK 构建智能体——Anthropic 官方框架,内置 computer-use、代码执行和文件系统原语,可通过兼容 OpenAI 的适配器配置以面向 Ertas 训练的本地模型运行。
Overview
Claude Agent SDK 是 Anthropic 官方用于构建可在计算机环境中执行操作的智能体框架。它提供一组小巧的高层原语——computer-use(鼠标、键盘、截屏)、代码执行(Python 沙箱)、文件系统访问以及网络搜索——共同实现 Anthropic“给智能体一台电脑”的设计哲学。该 SDK 不要求智能体由低级工具调用拼接动作,而是为常见环境提供生产级实现,让模型在更高抽象层级进行推理。2026 年 5 月 8 日的发布在 `PreToolUse` 钩子中新增了 `defer` 权限决策(钩子可以推迟调用直到额外上下文到达)、`strict` MCP 配置选项、用于实时记录尾随的批量与急切 `session_store_flush` 模式以及新的 `xhigh` 努力等级——这些运维原语显著改进了生产级可观测性与安全审查工作流。
该 SDK 最常与 Claude 本身一起使用,但其编排层的设计与模型无关。智能体循环、动作执行器以及安全原语全部位于模型 API 之上,这意味着任何支持工具调用与函数输出的模型都可以接入。对于希望使用该 SDK 的环境原语但不想被 Claude API 经济模型绑定的团队,可以将该框架配置为调用兼容 OpenAI 的端点提供 Ertas 训练模型——同时获得 computer-use、代码执行与文件系统操作能力,并控制推理成本。
Claude Agent SDK 的采用率在 2026 年因其环境原语而急剧加速。大多数智能体框架把 computer-use、沙箱化代码执行与文件系统工具的实现留给用户——这些工作并不简单,常常成为生产 bug 与安全漏洞的来源。该 SDK 开箱即提供经过实战检验的实现。
How Ertas Integrates
Ertas 训练的模型通过 Claude Agent SDK 的模型提供商配置层与之协同工作。在 Ertas Studio 中微调你的模型并部署到兼容 OpenAI 的端点后,你将 SDK 配置为使用你的端点作为模型提供商。SDK 的环境原语——computer-use、代码执行、文件系统访问——无论由哪种模型生成动作都能透明工作。
对于需要模型对计算机环境进行推理的智能体工作流,微调具有非同寻常的价值。一个通用 7B–14B 模型在被交付一台电脑时常常生成笨拙或不安全的动作序列;一个由 Ertas 训练、训练数据涵盖目标领域代表性 computer-use 轨迹(例如你公司的内部 CRM、你的 Salesforce 实例、你的自定义管理工具)的模型则会产生显著更可靠的动作序列。SDK 处理执行;Studio 处理专门化。
这种组合对受监管行业部署尤其引人注目。Claude Agent SDK 加上一个本地运行的 Ertas 训练模型,让组织无需向 Anthropic API 发送数据或动作即可获得 SDK 的环境原语。曾考虑使用 Claude 进行智能体工作流但因数据主权约束无法部署的医疗、法律和金融服务团队,可以借助这个组合在自有基础设施上部署。
Getting Started
- 1
在 Ertas Studio 中微调领域专用模型
在来自目标环境的 computer-use、工具调用与代码执行轨迹上训练。Studio 的训练数据格式支持 Agent SDK 使用的结构化动作-观测对。
- 2
部署到兼容 OpenAI 的端点
导出为 GGUF 并通过 Ollama、vLLM 或 Ertas Cloud 提供服务。SDK 可调用任何暴露带工具调用的标准聊天补全 API 的端点。
- 3
安装 Claude Agent SDK 并配置提供商
安装 claude-agent-sdk 并配置其模型提供商指向你的 Ertas 推理端点。SDK 的适配器层透明处理 API 转 换。
- 4
配置环境原语
按需启用 SDK 的 computer-use、代码执行和文件系统原语。每个原语都在自己的沙箱中运行,并暴露模型可调用的结构化动作 API。
- 5
运行带安全与追踪的智能体循环
使用 SDK 内置的智能体循环。安全检查、动作权限和追踪都与底层模型无关地透明工作。利用追踪反哺 Studio 进行增量改进。
from claude_agent_sdk import Agent, ComputerUseTool, FileSystemTool
from claude_agent_sdk.providers import OpenAICompatibleProvider
# Configure the SDK to use your Ertas-trained model
provider = OpenAICompatibleProvider(
base_url="http://localhost:11434/v1",
api_key="not-needed",
model="ertas-internal-ops-14b",
)
agent = Agent(
provider=provider,
tools=[
ComputerUseTool(sandbox="docker:secure-desktop"),
FileSystemTool(root="/data/internal-ops"),
],
instructions="You operate the internal-ops console — schedule reports, run queries, file tickets.",
)
# Run an action sequence — the SDK handles screenshots, action permissions, and tracing
result = agent.run(
"Run the weekly revenue report and file a ticket for any rows where revenue dropped >20% week-over-week."
)
print(result.summary)Benefits
- 生产级环境原语——computer-use、代码执行、文件系统、网络搜索
- 模型无关的编排层可与 Claude 或任何兼容替代品协作
- 内置安全原语——动作权限、沙箱化、审计跟踪
- 搭配 Ertas 微调实现领域专用 computer-use 专门化
- 面向受监管行业的本地部署故事——无云出口
- 内置生产级追踪与可观测性
Related Resources
Fine-Tuning
Function Calling
Structured Output
Fine-Tuning for Tool Calling: How to Build Reliable AI Agents with Small Models
Agentic AI On-Premise: Enterprise Deployment Without Cloud Dependency
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
LangGraph
Ollama
OpenAI Agents SDK
Pydantic AI
vLLM
Ertas for SaaS Product Teams
Ertas for AI Automation Agencies
Ertas for Internal Knowledge Bases
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.