7.3 中国 AI 模型接入

生成模型:GPT-5.4 (openai/gpt-5.4) Token 消耗:输入 ~24,000 tokens,输出 ~5,200 tokens(本节)


如果说前两节讲的是通用方法,这一节就是专门写给中文用户,尤其是中国大陆用户的。因为很多人真到部署阶段才发现,模型能力不是第一问题,网络和支付才是。你以为最难的是写配置,结果真正拦路的是:Anthropic 访问不稳、OpenAI 付款麻烦、API 延迟高、服务器在海外和本地完全两种体验。

所以对中国用户来说,一个靠谱的 OpenClaw 模型方案,往往不是“国际最强模型单核通吃”,而是“国产模型做常驻主力,国际模型做补位或高质量兜底”。

这一节我们重点看五家:DeepSeek、Qwen(通义千问)、Moonshot(月之暗面/Kimi)、Zhipu(智谱)、Doubao(豆包/字节)。它们的共同点是:大多能在国内更顺畅地注册、充值和调用;缺点是接口风格、模型命名、价格体系都不完全一样。OpenClaw 的好处就在这儿:它尽量把这些差异收进 models.providers 里,外面看起来还是一套统一配置。

说明:价格和型号更新很快,下面按 2026 年初常见公开 API 档位和实际使用习惯整理。具体单价、免费额度和模型列表,请以各家控制台为准。

7.3.1 中国用户为什么尤其需要国产模型

原因不只是“便宜”。更现实的是下面几件事。

第一,网络更稳。很多国产模型服务在大陆直连的成功率、首 token 延迟和整体吞吐,通常都比国际 API 更友好。

第二,充值和开票简单。你不需要折腾国际信用卡,也更容易做团队采购。

第三,中文语料和中文表达更接地气。尤其在改写、摘要、客服话术、文档整理这类任务里,一些国产模型的中文自然度是有优势的。

第四,适合做 OpenClaw 的常驻底座。因为 OpenClaw 不是一次性问答工具,它是要持续跑、持续花钱的。单次只差一点点的价格,长期会被放大得很明显。

7.3.2 一个通用的国产模型接入套路

先别急着分别看五家。大部分国产模型平台接入 OpenClaw,都逃不过下面这套模板:

{
  agents: {
    defaults: {
      model: {
        primary: "provider/model-name",
        fallbacks: ["anthropic/claude-sonnet-4-6"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      provider: {
        baseUrl: "https://api.example.com/compatible-endpoint",
        apiKey: "$PROVIDER_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "model-name",
            name: "Readable Name",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}

核心就四个字段:baseUrlapiKeyapimodels[]。如果某平台提供 OpenAI 兼容接口,那接起来会最顺手;如果它有自家特殊协议,就要看 OpenClaw 是否已有对应 provider,或者你自己声明 custom provider。

7.3.3 DeepSeek:便宜、强、很适合做国内主力

DeepSeek 这两年几乎成了国内开发者的默认候选。原因非常直接:便宜,代码和中文都不差,而且 API 体验相对清爽。

怎么注册:去 DeepSeek 开放平台创建账号,开通 API,生成 Key。对大陆用户来说,这一步通常比注册海外平台轻松得多。

常见模型名deepseek-chatdeepseek-reasoner 一类。前者偏通用,后者偏推理。

价格感觉:通常属于“明显比国际旗舰便宜”的那一档,做高频调用压力小很多。

优点:中文不错,代码能力强,成本友好,国内访问体验好。

弱点:在某些特别复杂的长链推理场景里,稳定性和上限未必总能压过国际顶级模型;另外热门时段也可能拥堵。

OpenClaw 配置示例:

如果你人在国内,只想先配一个“能长期跑”的主力模型,DeepSeek 往往是最容易让你满意的第一站。

7.3.4 Qwen:覆盖面广,生态成熟

Qwen,也就是通义千问,最大的优势不是单点爆发,而是产品线全。你常常能找到适合不同预算、不同延迟要求、不同能力档位的型号。

怎么注册:通常走阿里云百炼或相关模型服务平台,创建 API Key。

常见模型名:不同时间点名字会有差异,但大体会看到 qwen-plusqwen-turboqwen-maxqwen-coder 这种层次。

价格感觉:从便宜到中高价基本都有,选择空间大。

优点:中文稳定,企业接入方便,模型线齐,很多团队采购阿里云服务时顺手就一起上了。

弱点:不同型号差异比较大,选错了会有“名字都叫 Qwen,效果却完全不是一回事”的落差。

OpenClaw 配置示例:

如果你的目标是找一个“平台级、长期可维护”的国产接入,Qwen 往往很稳。

7.3.5 Moonshot:长文本和中文对话体验不错

Moonshot,也就是大家更熟悉的 Kimi 这条线,很多用户对它的第一印象是长文本。这个标签不是白来的,它在长文档阅读、总结、对话式解释里经常表现得挺顺。

怎么注册:在 Moonshot 开放平台创建 API Key。

常见模型名:不同阶段命名会有调整,通常能看到 moonshot-v1-* 这一类。

价格感觉:一般属于中档,不算最便宜,但也不至于离谱。

优点:中文对话自然,长文本处理体验好,拿来读文档、写解释、做知识型助手很合适。

弱点:如果你拿它去做特别激进的代码 Agent 主力,不一定比 DeepSeek 这类更对味。

OpenClaw 配置示例:

如果你的 OpenClaw 更像一个“会读资料、会整理文档、会陪你讨论”的助手,Moonshot 是很值得试的。

7.3.6 Zhipu:生态老牌,接入门槛低

智谱在国内开发者圈里属于很早就进入 API 视野的一家,很多人第一次玩国产大模型 API,用的就是它。

怎么注册:在智谱开放平台创建账号、实名认证、申请 Key。

常见模型名:GLM 系列,比如 glm-4-plusglm-4-air 这种风格。

价格感觉:从低价到中档都有,通常还算友好。

优点:接入路径比较成熟,资料多,中文任务普遍能打。

弱点:如果你追求最强代码能力或特别顶的长推理,未必是第一选择;但做稳定的中文日常主力,问题不大。

OpenClaw 配置示例:

如果你想找一个“国内接入顺、资料多、心里不慌”的方案,智谱很适合当备选池成员。

7.3.7 Doubao:字节系,速度和平台能力值得关注

豆包 API 这条线,对很多团队的吸引力在于平台化能力和字节系基础设施。它不一定是每个人第一时间想到的模型,但一旦你已经在字节云生态里,接起来会比较顺。

怎么注册:通常走火山引擎相关控制台,创建推理接入点和 Key。

常见模型名:不同控制台里往往会出现接入点 ID、推理 endpoint 名,而不只是一个单纯的模型字符串。这点要特别注意。

价格感觉:多半是中低到中档,具体很看你选的实例和能力档位。

优点:在某些企业场景下集成方便,响应速度往往不错,平台能力完整。

弱点:命名和控制台概念有时不够统一,新手第一次接会有点懵;你得分清“模型名”和“接入点”。

OpenClaw 配置示例:

如果你是企业用户,或者已经有火山引擎基础设施,这条线值得认真看。

7.3.8 五家怎么选:一个不绕弯的对比

提供者
大致价格感受
强项
弱项
更适合谁

DeepSeek

低到中

代码、中文、性价比

高峰期波动

个人开发者、重度调用用户

Qwen

低到中高全覆盖

型号全、生态稳

型号差异大

团队、长期平台化接入

Moonshot

长文本、中文对话

代码 Agent 不一定最强

文档型、知识型助手

Zhipu

低到中

资料多、接入顺

顶级能力上限不一定最强

入门者、中文日常任务

Doubao

中低到中

企业接入、速度、平台能力

接入点概念略绕

企业和字节云用户

这张表的重点不是给出唯一答案,而是告诉你:国产模型之间也不是一个味道。你得按自己的任务来配。

7.3.9 OpenClaw 在 GFW 环境下怎么配更稳

这一块很关键,因为很多人机器就在大陆。

如果你的 OpenClaw 部署在 GFW 内,最稳的策略通常是:

  1. 主模型选国内直连提供者

  2. 国际模型只做回退或高质量专用位

  3. 本地模型做最后保险

例如:

为什么这么排?因为在 GFW 环境里,国际 API 不只是“慢一点”,而是可能直接不稳定。你把它放第一位,整个系统的体感就会很脆。

还有几个经验很实用:

  • 如果服务器在国内,主力尽量选国产 API

  • 如果服务器在海外,但你人常在国内终端上操作,也要考虑链路延迟

  • 真要长期依赖国际模型,最好有稳定网络出口,不要把偶尔能通当成生产方案

  • 重要业务最好留本地模型或国内模型兜底

说白了,OpenClaw 是个长期运行系统,不是一次性网页聊天。网络方案不稳,模型再强也白搭。

7.3.10 一个适合中国用户的完整模板

最后给一份更接地气的配置。思路是:DeepSeek 做默认主力,Qwen 做国内回退,Claude 做高质量国际补位,本地模型做最终保险。

这个方案不一定最强,但非常像真实世界会用的方案:平时成本低、访问稳,遇到难题还能切到国际高质量模型,最差也有本地模型保底。

7.3.11 中国用户接入国产模型时常见的坑

最后再踩一遍坑,帮你省点时间。

第一,模型名和接入点搞混。尤其是 Doubao 这类平台,经常不是一个单纯的“模型字符串”就能说明白。

第二,复制了 OpenAI 配置,但实际 base URL 不对。很多国产平台虽然说兼容 OpenAI,但兼容的是某个特定路径,不是你随便拼一个 /v1 就行。

第三,只看单价,不看限流和上下文。便宜不等于真省钱,跑不起来更不省。

第四,把国际模型当主模型,把国产模型当回退,结果在国内环境里顺序完全反了。

第五,以为“国产模型便宜,所以不用做回退”。恰恰相反,越是长期跑,越应该把国产模型之间也做成多提供者结构。

本节小结

对中国用户来说,模型接入不是附加题,而是 OpenClaw 能不能长期稳定运行的核心题。DeepSeek 适合高性价比主力,Qwen 适合平台化和长期维护,Moonshot 长文档体验好,Zhipu 上手顺,Doubao 在企业场景有优势。真正实用的配置,往往是国产模型做日常主力,国际模型做高质量补位,本地模型做最后保险。这样配下来,OpenClaw 才像一个真的能天天用的系统,而不是只能在网络顺利、账单正常时偶尔发光一次的玩具。

Last updated