1.1 什么是OpenClaw:个人AI助手的全新范式
生成模型:Claude Opus 4.6 (anthropic/claude-opus-4-6) Token 消耗:输入 ~140k tokens,输出 ~3.2k tokens(本节)
很多人第一次听到 OpenClaw,脑子里会先冒出一个问题:它和 ChatGPT、Claude 这种聊天工具,到底差在哪?如果只看表面,它们都能聊天、能写东西、能回答问题,似乎差不多。但 OpenClaw 想做的,不只是“一个聊天窗口里的 AI”。它更像是一个长期住在你自己设备上的个人 AI 助手:你可以通过不同的消息入口找到它,它能记住你平时的习惯,能调动工具替你做事,而且核心控制权在你手里,不是在某家平台的后台里。
这一章是全书的第一章,所以我们先不钻源码,不急着谈复杂实现。先把最关键的感觉建立起来:OpenClaw 是什么,它为什么会出现,它适合什么人,以及它背后的两条设计主线到底是什么意思。
1.1.1 OpenClaw 不是另一个聊天网页
如果你平时主要接触的是 ChatGPT、Claude、Gemini 这一类产品,你已经很熟悉一种典型使用方式:打开网页或 App,输入一句话,等模型回你。这种方式当然很方便,但它有一个明显前提:你是在“使用一个别人搭好的 AI 服务”。
OpenClaw 则更像是在搭建“你自己的 AI 助手系统”。这里有两个关键词。
第一个关键词是“个人”。OpenClaw 默认就是为一个具体的人服务的,不是面向一个公司的全部员工,也不是一个公开的机器人平台。它更像你的私人助理,而不是一个大型 SaaS 产品里的公共功能。
第二个关键词是“助手”。聊天只是入口,重点不是把问题答出来,而是接住事情、继续做事。比如:
你在 Telegram 上丢一句“明早 8 点提醒我交作业”,它不只是回复“好的”,还可以真的安排提醒。
你在 WhatsApp 上发一张截图,让它帮你整理成待办,它可以继续调用工具处理内容。
你在电脑上写代码写到一半,直接让它读项目、跑命令、改文件,它不需要你把上下文重新复制一遍。
也就是说,OpenClaw 不把自己定位成“一个对话网站”,而是“一个可长期运行、可持续协作的个人 AI 系统”。这个差别,决定了它后面很多设计都和常见聊天产品不一样。
1.1.2 它为什么会出现
OpenClaw 出现,不是因为世界上缺少一个聊天机器人,而是因为很多重度用户很快会碰到现有产品的边界。
先看几个常见痛点。
第一,你的入口太分散。你可能在 Slack 里聊工作,在 Telegram 里记灵感,在手机上看通知,在电脑终端里写代码。传统 AI 产品往往要求你主动“打开它”,而不是让它自然地出现在你已经在用的环境里。
第二,你的上下文不连贯。很多时候,你在一个地方说过的话,到另一个地方就断了。今天在网页里讲过的需求,明天到手机上又得重说一遍。对轻度使用者来说,这只是麻烦;对长期协作来说,这会直接拉低效率。
第三,控制权不在你手里。你的配置、记录、行为方式、工具权限,很多都取决于产品方怎么设计。你能不能定制,能定制到什么程度,经常不是技术问题,而是产品边界问题。
第四,AI 很会“说”,但不一定很会“干”。如果一个系统只能在聊天框里输出文字,那它更像咨询顾问;如果它能连上你的通道、工具、设备和日常工作流,它才更像助理。
OpenClaw 就是在这个背景下被设计出来的。它试图回答一个很直接的问题:能不能把 AI 从“一个云端网页”变成“一个在你自己环境里长期在线、随叫随到、能动手做事的个人助手”?
这也是为什么它会强调消息通道、工具系统、记忆、长期运行这些能力。因为这些东西拼起来,才更接近“助手”,而不只是“问答器”。
1.1.3 它适合谁,不适合谁
OpenClaw 很吸引人,但它不是给所有人准备的。
它最适合下面几类人:
愿意折腾工具链的开发者和技术爱好者。
希望把 AI 接进自己日常工作流的人,比如用消息软件、终端、脚本、自动化工具串起来做事。
对隐私、控制权、可定制性比较在意的人。
想研究“一个个人 AI 助手系统是怎么搭起来的”的学生和工程师。
如果你只是偶尔问几个问题、写几段文案、查一些资料,其实直接用现成的聊天产品就足够了。OpenClaw 的门槛比“打开网页就能用”高不少,它需要你理解配置、运行环境、模型接入,后面还会接触网关、通道、技能这些概念。
换句话说,它更像一套可编排的基础设施,而不是一个开箱即用、什么都替你包好的消费级 App。
但也正因为这样,它很适合拿来学习。你不只是“用了一个 AI 产品”,而是在逐步看懂:一个真正能工作的 AI 助手,背后需要哪些模块,为什么要这么设计,系统边界又在哪里。
1.1.4 和 ChatGPT 这类产品比,差别到底在哪
这里最好别把 OpenClaw 和 ChatGPT 简单理解成“谁更强”。它们解决的问题并不完全一样。
ChatGPT、Claude 这一类产品的长处,是把模型能力包装得非常顺手。注册、登录、打开、提问,几乎没有学习成本。它们更像成熟的 AI 服务入口。
OpenClaw 的长处,则在于“你可以把 AI 放进自己的地盘里”。具体看,有几个明显区别。
第一,入口不同。传统产品一般以官方网页和 App 为中心;OpenClaw 可以把 Telegram、WhatsApp、Slack、网页聊天、终端等入口汇到一起。你不是必须进入某个专用界面,很多时候你就在原来的沟通环境里直接找它。
第二,角色不同。传统产品默认是“一个服务”;OpenClaw 默认是“你的助手实例”。这个实例跟着你走,配置、记忆、工作区、习惯都围绕你展开。
第三,可定制程度不同。传统产品当然也有插件、GPTs、Projects 之类机制,但边界依旧由平台给定。OpenClaw 则更像是开放底座,你能接通道、配模型、装技能、改行为,还能延伸到自己的设备和脚本环境。
第四,持续在线的感觉不同。你可以把 OpenClaw 理解成一个长期开着的服务。有人给你发消息,它能接住;定时任务到了,它能执行;你从另一个入口切过来,它还能延续上下文。这种“常驻”的感觉,和“临时打开一个聊天页面”很不一样。
当然,OpenClaw 并不意味着完全脱离云端模型。它依然经常会调用外部大模型服务来做推理。区别不在于“完全本地跑大模型”,而在于“整个助理系统的控制层和使用方式由你掌握”。这个点很重要。
1.1.5 什么叫 local-first
OpenClaw 很强调一个词:local-first,也就是“本地优先”。这个词听起来有点技术味,但意思其实不绕。
所谓本地优先,不是说所有东西都必须离线完成,更不是说绝不访问网络。它真正强调的是:你的核心数据、配置和控制权,优先掌握在你自己手里。
放到 OpenClaw 里,可以把它理解成三层意思。
第一层,你的助手运行在你的设备或你自己控制的机器上。它不是某个平台替你托管的一段黑箱逻辑。你知道它在哪里运行,也知道它依赖什么。
第二层,和你有关的很多关键内容放在本地。比如配置、工作区、长期记忆、会话记录、技能说明等,原则上都更接近你的文件系统,而不是只存在于某个你看不见的后台面板里。
第三层,哪怕模型推理本身常常还要调用外部服务,整个“调度和组织过程”依旧是你自己的。该用哪个模型、谁能找这个助手、它能动哪些工具、保留哪些记忆,这些不是平台预设死的,而是你能决定的。
如果你以前没接触过 local-first,可以把它想成这样:不是你把自己交给某个 AI 平台,而是你把模型能力接进自己的系统里。前者像“租用一个现成办公室”,后者像“在自己房子里搭工作间”。两者都能办公,但掌控感完全不同。
1.1.6 什么叫 single-user
OpenClaw 还有一条很鲜明的设计路线:single-user,也就是“单用户优先”。
这里的“单用户”不是说系统只能认一个聊天对象,也不是说别人永远不能和你的助手互动。它更准确的意思是:这套系统默认是围绕一个主人来设计的,很多简化和优化都建立在这个前提上。
为什么这样做?因为一旦你要做成一个多租户系统,也就是同时服务很多相互隔离的用户,事情马上就复杂起来。你要考虑账号体系、权限边界、配额分配、数据隔离、计费、安全审批、团队协作规则……这些当然也重要,但它们解决的是“平台产品”问题,不是“个人助理”问题。
OpenClaw 选择先把“一个人的助手”做到位。这样带来的好处很实际:
配置简单,不需要先搭一整套组织管理系统。
决策直接,很多默认行为都能按“这是你自己的机器和助手”来设计。
体验更连续,助手不需要在不同用户之间频繁切换人格、权限和上下文。
工程上更容易把精力放在通道、工具、记忆、自动化这些真正影响助理体验的地方。
你可以把它理解成:OpenClaw 不是先造一座商场,再给你分一个柜台;它更像先给你造一个私人工作室。工作室没那么“企业级”,但非常贴身,也更灵活。
1.1.7 一个更像“人”的使用场景
为了把前面的概念连起来,我们看一个真实感更强的使用场景。
假设你是个计算机专业学生,平时既写代码,也做课程项目,还常常在不同设备之间切换。你可以这样用 OpenClaw:
在手机上的 Telegram 里,随手把老师布置的任务发给它,让它整理成待办。
回到电脑后,在终端里继续让它帮你梳理项目计划,甚至直接辅助你改代码。
晚上想到一个点子,又在另一个消息入口里补充一句,它还能接着前面的上下文往下走。
到了第二天早上,定时任务提醒你今天有答辩,顺手再把准备材料整理一遍。
这时候你会发现,OpenClaw 的价值不在“它回答得多华丽”,而在“它像一个持续在线的工作搭子”。入口可以变,设备可以变,任务形态也可以变,但背后还是同一个助手。
这也是为什么本书后面会花很多篇幅讲消息通道、网关、会话、工具、技能、记忆。因为这些东西不是零散功能,它们共同服务的目标,就是把 AI 从一次性问答,变成长期协作。
1.1.8 学这一章时,你应该抓住什么
如果你现在还是第一次接触 OpenClaw,其实不用急着记所有术语。先抓住三件事就够了。
第一,OpenClaw 的核心目标不是做一个更花哨的聊天界面,而是做一个属于你自己的个人 AI 助手系统。
第二,它最重要的设计味道是“本地优先”和“单用户优先”。前者强调控制权,后者强调场景聚焦。你后面看到的很多实现选择,基本都能从这两条线索里找到原因。
第三,OpenClaw 的强项在于把多个入口、工具能力和长期上下文接起来。也正因为如此,它天然比普通聊天产品更像一套工程系统。
理解了这三点,后面你再看架构,就不会觉得那些模块只是“技术名词堆在一起”。你会知道,它们其实都在服务同一件事:让 AI 真正变成一个能长期陪你工作的助手。
本节小结
OpenClaw 不是单纯的聊天工具,更像运行在你自己环境里的个人 AI 助手系统。
它出现的原因,是很多重度用户不满足于“只会聊天的 AI”,而是希望 AI 真能接入日常工作流去做事。
和 ChatGPT 这类产品比,OpenClaw 更强调入口整合、长期在线、可定制和个人控制权。
local-first 可以理解为“核心数据和控制层优先放在你手里”,不是简单等于“完全离线”。
single-user 指的是系统默认围绕一个主人设计,先把个人助手场景做到顺手,而不是先做成多租户平台。
Last updated