34.1 项目规划
生成模型:Claude Opus 4.6 (anthropic/claude-opus-4-6) Token 消耗:输入 ~350k tokens,输出 ~4k tokens(本节)
经过前面 33 章的源码分析,读者已经深入理解了 OpenClaw 的架构和实现细节。本章将从实践角度出发,指导读者构建一个简化版的多通道 AI 助手——MiniClaw。MiniClaw 不是 OpenClaw 的完整复制品,而是提取其核心设计思想的最小可行产品(MVP)。
34.1.1 需求分析
核心需求
MiniClaw 的目标是实现以下功能:
Gateway 服务器
src/gateway/
WebSocket 服务器 + RPC 协议
会话管理
src/sessions/
内存会话存储 + 基础路由
AI Agent 运行时
src/agents/
单 Agent + 工具调用循环
消息通道
src/channels/
Telegram Bot + WebChat
工具系统
src/agents/tools/
Bash 执行 + 文件读写
记忆系统
src/memory/
Markdown 文件记忆
非需求(MVP 排除)
以下功能在 MVP 中不实现,但预留扩展接口:
多代理架构
沙箱隔离
Canvas / A2UI
浏览器自动化
Cron 调度
原生客户端
技能系统
用户故事
34.1.2 架构设计参考
MiniClaw 的架构借鉴 OpenClaw 的分层设计,但大幅简化:
与 OpenClaw 的对应关系:
Gateway
src/gateway/server.ts
去掉 HTTP 层、认证、服务发现
Agent Runner
src/agents/pi-agent.ts
去掉多模型回退、上下文修剪策略
Session Store
src/sessions/
纯内存 Map,不持久化
Channel Adapter
src/channels/
直接实现,不用插件架构
Tool System
src/agents/tools/
硬编码工具列表,不动态注册
34.1.3 技术选型建议
运行时与语言
语言
TypeScript
与 OpenClaw 一致,类型安全,生态丰富
运行时
Node.js 22+
原生 ES Modules、WebSocket 支持
包管理
pnpm
更快的安装速度,支持 workspace
核心依赖
LLM API 选择
MiniClaw 应支持至少两个 LLM 提供商:
Anthropic Claude:通过
@anthropic-ai/sdk,支持工具调用、流式输出、思维过程OpenAI GPT:通过
openaiSDK,支持函数调用、流式输出
建议使用适配器模式(参考 OpenClaw 的 src/providers/)统一不同提供商的 API 差异:
项目目录结构
开发阶段规划
阶段 1
Gateway + Agent Runner + Bash 工具
8-12 小时
阶段 2
Telegram 通道 + WebChat
6-8 小时
阶段 3
文件工具 + 记忆系统
4-6 小时
阶段 4
Docker 部署 + 安全加固
4-6 小时
总计
完整 MVP
22-32 小时
对于有 TypeScript 和 Node.js 经验的学生,整个项目可以在一到两周内完成。
本节小结
MiniClaw 是 OpenClaw 核心设计的最小可行实现,聚焦于 Gateway + Agent + 通道 + 工具四大模块。
架构设计 借鉴 OpenClaw 的分层模式,但去掉了多代理、沙箱、Canvas 等高级功能。
技术选型 推荐 TypeScript + Node.js 22+,依赖
ws(WebSocket)、openai/@anthropic-ai/sdk(LLM)、grammy(Telegram)。适配器模式 统一不同 LLM 提供商的 API 差异,便于后续扩展。
四阶段开发计划:Gateway → 通道 → 工具/记忆 → 部署,总计 22-32 小时。
Last updated