养龙虾指南:OpenClaw 中国用户完全手册
OpenClaw 社区里,大家把搭建和调优 Agent 的过程戏称为"养龙虾"(Claw = 龙虾钳)。养龙虾看似简单——装个框架、接个模型、定义几个工具就行了——但中国用户在实际操作中会遇到大量海外文档没有提到的坑:网络问题、模型兼容性、中文 Prompt 优化、依赖安装等。
这篇手册专门为中国开发者编写,覆盖从环境配置到生产部署的每一个关键环节。如果你是完全的新手,建议先阅读OpenClaw 新手入门教程了解基础概念。
一、国内网络环境配置
这是中国用户遇到的第一道坎。OpenClaw 的 pip 包本身不大,但它的依赖链很长,在国内直连 PyPI 经常超时。
1.1 使用国内镜像源安装
# 临时使用清华源 pip install openclaw -i https://pypi.tuna.tsinghua.edu.cn/simple # 永久设置(推荐) pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
1.2 Docker 部署方案
如果你的生产环境使用 Docker,推荐使用阿里云容器镜像服务加速:
# Dockerfile FROM registry.cn-hangzhou.aliyuncs.com/python:3.11-slim RUN pip install openclaw -i https://pypi.tuna.tsinghua.edu.cn/simple COPY . /app WORKDIR /app CMD ["python", "main.py"]
1.3 离线安装
在完全隔离的内网环境中,你可以先在联网机器上下载所有依赖包,再拷贝到目标机器安装:
# 联网机器:下载所有依赖 pip download openclaw -d ./packages # 离线机器:从本地目录安装 pip install openclaw --no-index --find-links=./packages
二、国内模型接入指南
OpenClaw 兼容 OpenAI API 协议,国内大多数模型供应商都提供了兼容接口。以下是主流供应商的配置方式:
2.1 DeepSeek
# openclaw.yml model: provider: "openai-compatible" api_key: "sk-xxx" base_url: "https://api.deepseek.com/v1" model_name: "deepseek-chat"
2.2 阿里云百炼(通义千问)
model: provider: "openai-compatible" api_key: "sk-xxx" base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1" model_name: "qwen3-coder-plus"
2.3 智谱 AI(GLM)
model: provider: "openai-compatible" api_key: "xxx.xxx" base_url: "https://open.bigmodel.cn/api/paas/v4" model_name: "glm-5"
不同模型在 tool calling 场景下的表现差异很大。我们的10 个模型实测对比数据显示,MiniMax-M2.5 在多步任务中完成率最高,而 DeepSeek-V3 在性价比方面最优。
三、中文 Prompt 优化技巧
大多数模型的 tool calling 能力是基于英文训练的,中文指令可能导致调用成功率下降。以下是经过实测验证的优化技巧:
3.1 工具描述使用中英双语
@tool(description="搜索网页内容 (Search web content and return top results)")
def web_search(query: str) -> str:
...
我们测试发现,中英双语描述比纯中文描述的工具调用准确率高 12%。模型在选择工具时,英文关键词能提供更精准的语义匹配。
3.2 System Prompt 中明确指定行为
system_prompt = """你是一个任务执行助手。 规则: 1. 需要信息时,必须先调用工具获取,不要猜测 2. 工具调用失败时,尝试替代方案,不要直接放弃 3. 多步任务必须逐步完成,不能跳步 4. 返回结果必须基于工具返回的真实数据"""
这四条规则对应了我们在Tool Calling 失败分析中发现的四个最常见问题。明确写入 system prompt 可以有效降低失败率。
3.3 参数命名保持英文
虽然工具描述可以用中文,但参数名称强烈建议使用英文。中文参数名在某些模型的 JSON 序列化中会出现编码问题:
# 不推荐
def search(搜索词: str) -> str:
# 推荐
def search(query: str) -> str:
"""Args: query: 搜索关键词"""
四、常见坑点与解决方案
坑点 1:SSL 证书验证失败
部分企业网络环境存在 SSL 中间人代理,导致 API 请求失败。临时解决:在配置中添加 verify_ssl: false。长期建议将代理证书加入系统信任链。
坑点 2:Token 计费差异
中文文本的 token 数量通常是英文的 1.5-2 倍。一个 500 字的中文 prompt 可能消耗 800-1000 个 token。在预算规划时要考虑这个因素。
坑点 3:时区与日期格式
工具返回的时间默认是 UTC 格式。如果你的 Agent 需要处理中国时间,记得在工具实现中做时区转换:
from datetime import datetime, timezone, timedelta
cst = timezone(timedelta(hours=8))
now = datetime.now(cst).strftime("%Y-%m-%d %H:%M")
坑点 4:并发请求限制
国内模型 API 通常有严格的 QPS 限制(每秒请求数)。DeepSeek 免费版限制 2 QPS,百炼限制 5 QPS。在多 Agent 并发场景下,务必添加请求队列和限流逻辑。
五、生产环境部署建议
从开发环境到生产环境,还需要关注以下几点:
- 日志记录 — 记录每次 tool calling 的输入输出,便于排查问题
- 监控告警 — 设置 tool calling 成功率监控,低于阈值时自动告警
- 模型降级 — 主模型不可用时自动切换到备用模型
- 成本控制 — 设置每日 token 消耗上限,防止异常消耗
如果你不想从零搭建这些基础设施,ClawTune 提供了开箱即用的智能路由、监控和自动降级功能,一行配置即可接入。
总结
养龙虾的过程充满挑战,但只要避开这些已知的坑,就能大大缩短从入门到生产的路径。本文覆盖的核心要点:国内镜像加速安装、主流模型接入配置、中文 Prompt 优化三板斧(双语描述、明确规则、英文参数名)、以及生产环境的四个必备能力。
更多关于 AI Agent 工具的对比分析,可以阅读我们的2026 年 AI Agent 工具对比。