2.2 引导向导与首次配置
生成模型:OpenAI GPT-5.4 (openai/gpt-5.4) Token 消耗:输入 ~25k tokens,输出 ~3.6k tokens(本节)
上一节我们把 OpenClaw 安装好了,但那还只是“工具在电脑上”。现在还差一步:让它知道自己该怎么工作。
这一步如果你靠手写配置文件,也不是完全不行,但我不建议新手这么干。原因很简单:第一次接触 OpenClaw,你还不知道哪些字段是必填、哪些选项互相有关、哪些设置会落到哪个目录。这个时候最好的入口不是自己猜,而是直接跑引导向导。
OpenClaw 的首次引导命令叫:
openclaw onboard有些场景你也会看到别人写:
openclaw onboard --install-daemon这表示在完成引导的同时,顺手安装后台守护进程。我们这章先不着急把它放到后台长期运行,先把最小链路走通。所以建议你先从不带额外参数的 openclaw onboard 开始。
2.2.1 为什么第一次别手搓配置文件
你可以把 onboard 理解成一个带校验的安装助手。它不是“炫技用的交互界面”,而是把第一次配置里最容易漏、最容易配错的地方帮你拦下来。
比如它会引导你处理这些问题:
Gateway 监听在哪里
默认模型用哪个
模型提供方怎么认证
工作目录和本地数据往哪里放
要不要顺手连接一个通道
这些设置如果你都清楚,当然也可以以后自己改配置;但第一次上手时,用向导明显更稳。
2.2.2 运行 openclaw onboard 之后会发生什么
openclaw onboard 之后会发生什么先在终端里执行:
你通常会看到类似下面的开始界面:
不同版本的界面文案可能略有变化,但整体流程差不多。你可以把它想成 4 个阶段:
确认基础信息和安全提醒
配 Gateway
配模型提供方和默认模型
预览或连接第一个通道
我们一个个来看。
2.2.3 第一步:先过一遍安全提醒
第一次运行时,向导一般会先给你一段安全提醒。别看到提示就条件反射按回车,这里它不是在走形式。
OpenClaw 是一个能接收消息、能调模型、还能在某些配置下调用工具的系统。换句话说,它不是单纯“帮你问答”的玩具。如果你后面给它更高的能力,比如文件访问、命令执行,那输入内容的安全边界就很重要。
在入门阶段,你先记住一句话就够了:
不要把 OpenClaw 当成一个什么都能无脑相信的自动驾驶系统。
它很强,但也需要你给它一个合理的运行边界。
2.2.4 第二步:配置 Gateway
Gateway 可以先粗暴理解成 OpenClaw 的本地中枢。CLI 发消息给它,后面接消息通道也要靠它。所以向导里首先会问 Gateway 相关配置,这是合理的。
新手最常见的默认设置通常是:
监听地址:
127.0.0.1端口:
18789
你在提示里看到的内容可能长这样:
如果你只是本机学习、自己在终端里发消息,这个默认值就很好,别乱改。
为什么默认绑定 127.0.0.1?因为这表示只允许本机访问。对第一次使用来说,这是最安全、最省心的方式。你暂时不需要考虑把它暴露给局域网,不需要考虑远程访问,更不需要一上来就研究公网入口。
等你后面真的需要多设备访问,再去看更完整的 Gateway 配置也不迟。
2.2.5 第三步:配置模型提供方
这一部分是整个引导里最关键的地方。因为 OpenClaw 自己不“产出答案”,真正生成回复的是后面的模型提供方。
你可以把这个关系理解成:
OpenClaw 负责路由、会话、通道、工具、运行时
模型提供方负责生成自然语言回复
所以向导一定会问你:准备用哪家模型、怎么认证。
常见的选择包括:
Anthropic
OpenAI
OpenRouter
Google Gemini
本地模型服务(如 Ollama,取决于你的环境)
对于第一次上手,我建议你选自己最熟、最稳的那一家。如果你本来就有 API Key,直接配它,最省时间。
一个典型的 API Key 配置过程
比如你选择某个支持 API Key 的提供方后,向导大概率会继续问:
这时候你把 Key 填进去即可。终端一般不会明文回显,这很正常。输完之后,它通常还会让你选一个默认模型,比如:
这里你不用纠结“最强的一定最好”。入门阶段的目标不是做模型测评,而是把链路跑通。能稳定返回结果的模型,就是好模型。
API Key 放在哪儿了
新手很常问这个问题:我刚才输入的 Key,OpenClaw 存到哪里去了?
你不需要一开始就掌握全部配置细节,但最好知道一个大概:首次配置完成后,OpenClaw 会在你的用户目录下建立自己的工作目录,通常是 ~/.openclaw/。里面会放主配置、凭据、会话数据、工作区等内容。
别急着现在手动去改。先让向导帮你生成一套能跑的最小配置,后面再慢慢认识这些文件更合适。
2.2.6 第四步:选默认模型时,别把自己绕晕
很多同学第一次看到一串模型列表,会开始犹豫:到底该选推理强的,还是速度快的?要不要一步到位选最贵的?
这里我给一个很实用的建议:
先选你已经能正常认证、而且返回速度稳定的那个。
因为这一章的目标不是找“宇宙最优模型”,而是确认 OpenClaw 能把请求送出去、模型能回得来、Gateway 能把结果交回 CLI。只要链路通了,以后你改默认模型是非常便宜的事。
如果向导支持测试连接,建议你直接测一次。比如你会看到类似:
只要看到这类成功提示,心里就踏实很多。
2.2.7 Gateway 配置和模型配置,关系是什么
这一点很多新手会混在一起。
Gateway 配置解决的是“OpenClaw 本地服务怎么启动、怎么被访问”;模型配置解决的是“OpenClaw 该把推理请求发给谁”。
一个管本地中枢,一个管外部大脑。两者都得配,但不是一回事。
如果你把它们混在一起,后面排错时就容易乱。举个例子:
openclaw gateway启不来,优先看本地服务配置Gateway 能启动,但消息发出去没回复,优先看模型认证和默认模型
这样拆开想,很多问题就没那么吓人了。
2.2.8 第五步:第一个通道连接预览
做完模型配置之后,向导一般会继续问你,要不要现在连接消息通道。这里的“通道”,你可以先理解成 OpenClaw 接收和发送消息的入口,比如 Telegram、Discord、Slack、WhatsApp 之类。
但这一章我们主线是:先把本机 CLI 跑通。所以我的建议是:
先看预览,理解它大概能接什么;真正连接可以先跳过,或者只做最轻量的一种。
你可能会看到类似菜单:
如果你选择 Skip for now,完全没问题。你不会因此失去本章后面的学习能力,因为我们下一节发第一条消息走的是 CLI,本来就不依赖 Telegram 或 Discord。
为什么还要让你先看一眼通道
因为这一步的价值不只是在“现在就连上”,还在于让你建立一个正确印象:OpenClaw 不是只能在终端里问答。CLI 只是其中一个入口,后面各种消息平台也是入口,而真正把这些入口统一起来的,是 Gateway。
哪怕你现在先不连通道,先看一眼菜单,脑子里也会有个图:哦,原来以后我能把同一套运行时接到不同平台上。
2.2.9 向导结束后,你会得到什么
当 openclaw onboard 走完以后,一般会给你一个完成提示,大概像这样:
这时最重要的不是把提示关掉,而是确认你已经完成了三件事:
有了一套本地配置
有了一个能用的模型提供方认证
选好了默认模型
这就够继续往下走了。
2.2.10 如果向导中途卡住,该怎么排
输入了 API Key,但测试失败
先确认三件事:
Key 有没有复制错,前后有没有多空格
当前终端所在的机器网络能不能访问对应模型服务
你选的模型是不是当前账号真能调用
很多时候不是 Key 错,而是“认证方式和模型不匹配”。
端口冲突
如果向导或后续启动时提示端口被占用,说明 18789 已经被别的进程用了。你可以换一个端口,但要记住后面 CLI 访问 Gateway 时也要用同样的配置。入门阶段如果没有特殊原因,优先先释放冲突,比随手改一堆端口更省脑子。
配完了,还是不放心
很正常。第一次配这种系统,很多人都会觉得“我是不是漏了什么”。最简单的验证办法不是去翻配置文件,而是下一节直接启动 Gateway,然后发一条消息。能回,就说明最关键的链路已经成立。
2.2.11 现在你脑子里应该有的图
到这里,你不需要记住所有配置细节,但最好已经有这样一幅图:
如果这张图你已经能在脑子里说顺,说明这一节你就真的学到了,不是只跟着敲了一遍命令。
本节小结
第一次使用 OpenClaw,优先跑
openclaw onboard,别急着手写配置文件。引导向导最关键的两部分是 Gateway 本地配置和模型提供方认证,这两者别混为一谈。
API Key 配置的核心目标不是“选最强模型”,而是先选一个你能稳定调用的默认模型,把链路跑通。
通道连接这一步可以先预览、先跳过;本章后面的首条消息测试并不依赖 Telegram 或 Discord。
向导结束后,只要你已经完成本地配置、模型认证和默认模型选择,就可以进入下一节,启动 Gateway 并真正发出第一条消息。
Last updated