# 7.3 中国 AI 模型接入

> **生成模型**：GPT-5.4 (openai/gpt-5.4) **Token 消耗**：输入 \~24,000 tokens，输出 \~5,200 tokens（本节）

***

如果说前两节讲的是通用方法，这一节就是专门写给中文用户，尤其是中国大陆用户的。因为很多人真到部署阶段才发现，模型能力不是第一问题，网络和支付才是。你以为最难的是写配置，结果真正拦路的是：Anthropic 访问不稳、OpenAI 付款麻烦、API 延迟高、服务器在海外和本地完全两种体验。

所以对中国用户来说，一个靠谱的 OpenClaw 模型方案，往往不是“国际最强模型单核通吃”，而是“国产模型做常驻主力，国际模型做补位或高质量兜底”。

这一节我们重点看五家：DeepSeek、Qwen（通义千问）、Moonshot（月之暗面/Kimi）、Zhipu（智谱）、Doubao（豆包/字节）。它们的共同点是：大多能在国内更顺畅地注册、充值和调用；缺点是接口风格、模型命名、价格体系都不完全一样。OpenClaw 的好处就在这儿：它尽量把这些差异收进 `models.providers` 里，外面看起来还是一套统一配置。

> **说明**：价格和型号更新很快，下面按 2026 年初常见公开 API 档位和实际使用习惯整理。具体单价、免费额度和模型列表，请以各家控制台为准。

## 7.3.1 中国用户为什么尤其需要国产模型

原因不只是“便宜”。更现实的是下面几件事。

第一，网络更稳。很多国产模型服务在大陆直连的成功率、首 token 延迟和整体吞吐，通常都比国际 API 更友好。

第二，充值和开票简单。你不需要折腾国际信用卡，也更容易做团队采购。

第三，中文语料和中文表达更接地气。尤其在改写、摘要、客服话术、文档整理这类任务里，一些国产模型的中文自然度是有优势的。

第四，适合做 OpenClaw 的常驻底座。因为 OpenClaw 不是一次性问答工具，它是要持续跑、持续花钱的。单次只差一点点的价格，长期会被放大得很明显。

## 7.3.2 一个通用的国产模型接入套路

先别急着分别看五家。大部分国产模型平台接入 OpenClaw，都逃不过下面这套模板：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "provider/model-name",
        fallbacks: ["anthropic/claude-sonnet-4-6"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      provider: {
        baseUrl: "https://api.example.com/compatible-endpoint",
        apiKey: "$PROVIDER_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "model-name",
            name: "Readable Name",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

核心就四个字段：`baseUrl`、`apiKey`、`api`、`models[]`。如果某平台提供 OpenAI 兼容接口，那接起来会最顺手；如果它有自家特殊协议，就要看 OpenClaw 是否已有对应 provider，或者你自己声明 custom provider。

## 7.3.3 DeepSeek：便宜、强、很适合做国内主力

DeepSeek 这两年几乎成了国内开发者的默认候选。原因非常直接：便宜，代码和中文都不差，而且 API 体验相对清爽。

**怎么注册**：去 DeepSeek 开放平台创建账号，开通 API，生成 Key。对大陆用户来说，这一步通常比注册海外平台轻松得多。

**常见模型名**：`deepseek-chat`、`deepseek-reasoner` 一类。前者偏通用，后者偏推理。

**价格感觉**：通常属于“明显比国际旗舰便宜”的那一档，做高频调用压力小很多。

**优点**：中文不错，代码能力强，成本友好，国内访问体验好。

**弱点**：在某些特别复杂的长链推理场景里，稳定性和上限未必总能压过国际顶级模型；另外热门时段也可能拥堵。

OpenClaw 配置示例：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "deepseek/deepseek-chat",
        fallbacks: ["anthropic/claude-sonnet-4-6", "openai/gpt-4o"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      deepseek: {
        baseUrl: "https://api.deepseek.com",
        apiKey: "$DEEPSEEK_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "deepseek-chat",
            name: "DeepSeek Chat",
            input: ["text"],
            contextWindow: 64000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          },
          {
            id: "deepseek-reasoner",
            name: "DeepSeek Reasoner",
            input: ["text"],
            contextWindow: 64000,
            maxTokens: 8192,
            reasoning: true,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

如果你人在国内，只想先配一个“能长期跑”的主力模型，DeepSeek 往往是最容易让你满意的第一站。

## 7.3.4 Qwen：覆盖面广，生态成熟

Qwen，也就是通义千问，最大的优势不是单点爆发，而是产品线全。你常常能找到适合不同预算、不同延迟要求、不同能力档位的型号。

**怎么注册**：通常走阿里云百炼或相关模型服务平台，创建 API Key。

**常见模型名**：不同时间点名字会有差异，但大体会看到 `qwen-plus`、`qwen-turbo`、`qwen-max`、`qwen-coder` 这种层次。

**价格感觉**：从便宜到中高价基本都有，选择空间大。

**优点**：中文稳定，企业接入方便，模型线齐，很多团队采购阿里云服务时顺手就一起上了。

**弱点**：不同型号差异比较大，选错了会有“名字都叫 Qwen，效果却完全不是一回事”的落差。

OpenClaw 配置示例：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "qwen/qwen-plus",
        fallbacks: ["deepseek/deepseek-chat", "anthropic/claude-sonnet-4-6"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      qwen: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "$QWEN_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "qwen-plus",
            name: "Qwen Plus",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          },
          {
            id: "qwen-max",
            name: "Qwen Max",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: true,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

如果你的目标是找一个“平台级、长期可维护”的国产接入，Qwen 往往很稳。

## 7.3.5 Moonshot：长文本和中文对话体验不错

Moonshot，也就是大家更熟悉的 Kimi 这条线，很多用户对它的第一印象是长文本。这个标签不是白来的，它在长文档阅读、总结、对话式解释里经常表现得挺顺。

**怎么注册**：在 Moonshot 开放平台创建 API Key。

**常见模型名**：不同阶段命名会有调整，通常能看到 `moonshot-v1-*` 这一类。

**价格感觉**：一般属于中档，不算最便宜，但也不至于离谱。

**优点**：中文对话自然，长文本处理体验好，拿来读文档、写解释、做知识型助手很合适。

**弱点**：如果你拿它去做特别激进的代码 Agent 主力，不一定比 DeepSeek 这类更对味。

OpenClaw 配置示例：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "moonshot/moonshot-v1-128k",
        fallbacks: ["qwen/qwen-plus", "anthropic/claude-sonnet-4-6"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.cn/v1",
        apiKey: "$MOONSHOT_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "moonshot-v1-128k",
            name: "Moonshot 128K",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

如果你的 OpenClaw 更像一个“会读资料、会整理文档、会陪你讨论”的助手，Moonshot 是很值得试的。

## 7.3.6 Zhipu：生态老牌，接入门槛低

智谱在国内开发者圈里属于很早就进入 API 视野的一家，很多人第一次玩国产大模型 API，用的就是它。

**怎么注册**：在智谱开放平台创建账号、实名认证、申请 Key。

**常见模型名**：GLM 系列，比如 `glm-4-plus`、`glm-4-air` 这种风格。

**价格感觉**：从低价到中档都有，通常还算友好。

**优点**：接入路径比较成熟，资料多，中文任务普遍能打。

**弱点**：如果你追求最强代码能力或特别顶的长推理，未必是第一选择；但做稳定的中文日常主力，问题不大。

OpenClaw 配置示例：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "zhipu/glm-4-plus",
        fallbacks: ["deepseek/deepseek-chat", "google/gemini-2.5-pro"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      zhipu: {
        baseUrl: "https://open.bigmodel.cn/api/paas/v4",
        apiKey: "$ZHIPU_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "glm-4-plus",
            name: "GLM-4 Plus",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

如果你想找一个“国内接入顺、资料多、心里不慌”的方案，智谱很适合当备选池成员。

## 7.3.7 Doubao：字节系，速度和平台能力值得关注

豆包 API 这条线，对很多团队的吸引力在于平台化能力和字节系基础设施。它不一定是每个人第一时间想到的模型，但一旦你已经在字节云生态里，接起来会比较顺。

**怎么注册**：通常走火山引擎相关控制台，创建推理接入点和 Key。

**常见模型名**：不同控制台里往往会出现接入点 ID、推理 endpoint 名，而不只是一个单纯的模型字符串。这点要特别注意。

**价格感觉**：多半是中低到中档，具体很看你选的实例和能力档位。

**优点**：在某些企业场景下集成方便，响应速度往往不错，平台能力完整。

**弱点**：命名和控制台概念有时不够统一，新手第一次接会有点懵；你得分清“模型名”和“接入点”。

OpenClaw 配置示例：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "doubao/doubao-pro-32k",
        fallbacks: ["qwen/qwen-plus", "deepseek/deepseek-chat"]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      doubao: {
        baseUrl: "https://ark.cn-beijing.volces.com/api/v3",
        apiKey: "$DOUBAO_API_KEY",
        api: "openai-completions",
        models: [
          {
            id: "doubao-pro-32k",
            name: "Doubao Pro 32K",
            input: ["text"],
            contextWindow: 32000,
            maxTokens: 8192,
            reasoning: false,
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
          }
        ]
      }
    }
  }
}
```

如果你是企业用户，或者已经有火山引擎基础设施，这条线值得认真看。

## 7.3.8 五家怎么选：一个不绕弯的对比

| 提供者      | 大致价格感受  | 强项           | 弱项             | 更适合谁         |
| -------- | ------- | ------------ | -------------- | ------------ |
| DeepSeek | 低到中     | 代码、中文、性价比    | 高峰期波动          | 个人开发者、重度调用用户 |
| Qwen     | 低到中高全覆盖 | 型号全、生态稳      | 型号差异大          | 团队、长期平台化接入   |
| Moonshot | 中       | 长文本、中文对话     | 代码 Agent 不一定最强 | 文档型、知识型助手    |
| Zhipu    | 低到中     | 资料多、接入顺      | 顶级能力上限不一定最强    | 入门者、中文日常任务   |
| Doubao   | 中低到中    | 企业接入、速度、平台能力 | 接入点概念略绕        | 企业和字节云用户     |

这张表的重点不是给出唯一答案，而是告诉你：国产模型之间也不是一个味道。你得按自己的任务来配。

## 7.3.9 OpenClaw 在 GFW 环境下怎么配更稳

这一块很关键，因为很多人机器就在大陆。

如果你的 OpenClaw 部署在 GFW 内，最稳的策略通常是：

1. 主模型选国内直连提供者
2. 国际模型只做回退或高质量专用位
3. 本地模型做最后保险

例如：

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "deepseek/deepseek-chat",
        fallbacks: [
          "qwen/qwen-plus",
          "anthropic/claude-sonnet-4-6",
          "local/qwen2.5-coder-14b"
        ]
      }
    }
  }
}
```

为什么这么排？因为在 GFW 环境里，国际 API 不只是“慢一点”，而是可能直接不稳定。你把它放第一位，整个系统的体感就会很脆。

还有几个经验很实用：

* 如果服务器在国内，主力尽量选国产 API
* 如果服务器在海外，但你人常在国内终端上操作，也要考虑链路延迟
* 真要长期依赖国际模型，最好有稳定网络出口，不要把偶尔能通当成生产方案
* 重要业务最好留本地模型或国内模型兜底

说白了，OpenClaw 是个长期运行系统，不是一次性网页聊天。网络方案不稳，模型再强也白搭。

## 7.3.10 一个适合中国用户的完整模板

最后给一份更接地气的配置。思路是：DeepSeek 做默认主力，Qwen 做国内回退，Claude 做高质量国际补位，本地模型做最终保险。

```json5
{
  agents: {
    defaults: {
      model: {
        primary: "deepseek/deepseek-chat",
        fallbacks: [
          "qwen/qwen-plus",
          "anthropic/claude-sonnet-4-6",
          "local/qwen2.5-coder-14b"
        ]
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      deepseek: {
        baseUrl: "https://api.deepseek.com",
        apiKey: "$DEEPSEEK_API_KEY",
        api: "openai-completions",
        models: [{ id: "deepseek-chat", name: "DeepSeek Chat" }]
      },
      qwen: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "$QWEN_API_KEY",
        api: "openai-completions",
        models: [{ id: "qwen-plus", name: "Qwen Plus" }]
      },
      anthropic: {
        apiKey: "$ANTHROPIC_API_KEY"
      },
      local: {
        baseUrl: "http://127.0.0.1:11434/v1",
        apiKey: "$LOCAL_LLM_API_KEY",
        api: "openai-chat",
        models: [{ id: "qwen2.5-coder-14b", name: "Qwen2.5 Coder 14B Local" }]
      }
    }
  }
}
```

这个方案不一定最强，但非常像真实世界会用的方案：平时成本低、访问稳，遇到难题还能切到国际高质量模型，最差也有本地模型保底。

## 7.3.11 中国用户接入国产模型时常见的坑

最后再踩一遍坑，帮你省点时间。

第一，模型名和接入点搞混。尤其是 Doubao 这类平台，经常不是一个单纯的“模型字符串”就能说明白。

第二，复制了 OpenAI 配置，但实际 base URL 不对。很多国产平台虽然说兼容 OpenAI，但兼容的是某个特定路径，不是你随便拼一个 `/v1` 就行。

第三，只看单价，不看限流和上下文。便宜不等于真省钱，跑不起来更不省。

第四，把国际模型当主模型，把国产模型当回退，结果在国内环境里顺序完全反了。

第五，以为“国产模型便宜，所以不用做回退”。恰恰相反，越是长期跑，越应该把国产模型之间也做成多提供者结构。

## 本节小结

对中国用户来说，模型接入不是附加题，而是 OpenClaw 能不能长期稳定运行的核心题。DeepSeek 适合高性价比主力，Qwen 适合平台化和长期维护，Moonshot 长文档体验好，Zhipu 上手顺，Doubao 在企业场景有优势。真正实用的配置，往往是国产模型做日常主力，国际模型做高质量补位，本地模型做最后保险。这样配下来，OpenClaw 才像一个真的能天天用的系统，而不是只能在网络顺利、账单正常时偶尔发光一次的玩具。
