OpenClaw 被定位为一个运行在本地的“数字生命中枢”,可作为个人 AI 助手,通过 Skills/工具集成扩展能力,并利用 Gateway 实现跨平台接入与异步调度,用户可通过即时通讯工具交互。所有数据(记忆、文件索引、Skills 脚本)均储存在本地工作区,确保用户对数据的可控性。
安装与配置
OpenClaw 支持在 Mac mini(因其低功耗、Apple Skill 易用性及 M4 性价比较高而热门)、Windows、Linux 或各大云服务器上部署。
安装方式包括 One-liner、npm、Hackable 和 macOS 客户端四种。
配置主要分为四个步骤:
- 模型选择:选择 AI 服务提供商(支持 OAuth 认证或直接输入 API Key),如 Google Antigravity 可授权使用 Gemini/Claude 模型,API 计费则基于 Token 使用量。
- Channel 配置:配置与 OpenClaw 通信的媒介,如飞书。
- Skills 安装:选择并安装所需的功能扩展。
- 界面启动:启动 Gateway,选择 TUI、Web UI 或 macOS 官网 Companion App 作为控制界面。
模型选择与策略
文章对比了多种模型接入方案:
- 顶级模型:ChatGPT 5.3-Codex 和 Claude Opus 4.6(建议通过官方订阅或 OpenRouter 聚合服务商使用)。GPT-5.3 Codex 被认为综合体验最佳,速度质量均衡。
- Google 用户:可通过 Antigravity 授权使用 Gemini 和 Claude(需注意 Rate Limit),或使用 Google AI Studio API。
- 国产模型:MiniMax 2.1(价格更低,响应稍快)和 Kimi K2.5(工程能力稍强)是性价比高的替代方案。
- 本地模型:通过 Ollama 调用 DeepSeek V3.2、qwen3-coder-next 等,适合注重隐私和拥有强大本地性能的用户。
- 免费体验:可通过 Nvidia 试用 Kimi K2.5 API Key,或使用 OpenRouter 上的 Pony Alpha(注意该模型会上传数据用于训练)。
核心使用场景
- 聊天机器人:通过飞书等 IM 工具实现跨平台对话,并沉淀为持久记忆。
- 远程编程 (Vibe Coding):通过自然语言指令在任意地点通过 Channel 远程操作终端完成编程任务,如远程修改 iPhone 输入法皮肤文件。
- 定制新闻官:打造专属 RSS 阅读服务,可导入 OPML 文件,脚本化抓取、筛选、总结每日文章,并自动推送或生成播客/视频内容。
- 写作协作:整合写作流程,用于资料搜集、事实核对、概要整理,并通过 Skill 读取本地文件进行校对和润色。
- Notion 外部大脑:利用原生 Notion Skill,实现定时从 Notion 数据库挑选生词、打分记录等自动化操作,替代 Notion AI 订阅。
- 浏览器控制:安装 Chrome 插件后,可指挥 OpenClaw 自动完成浏览器 UI 交互,如抓取小红书帖子(需注意安全风险)。
- AI 手机:有用户通过 Termux 在安卓手机上安装 OpenClaw 实现对手机硬件(如手电筒、摄像头)的语音控制。
使用技巧与优化
- 会话管理:创建多个群组/频道,隔离不同场景的对话和记忆,避免私聊记忆文件因冗长和杂乱而影响效率。默认群聊需使用
@Claw 唤醒。
- Token 优化:勤用
/new(开启全新会话)和 /compact(压缩上下文)。建议启用内置 QMD 记忆检索中间层,平衡长期上下文保留与 Token 成本。
- Subagents:可通过编排脚本实现多代理协作系统,由主代理派发和汇总任务。
- 语音支持:安装 Whisper Skill 实现高质量语音转写,安装 edge-tts Skill 实现文字回复自动转为音频输出。
- 备份与恢复:为应对工具不成熟带来的问题,建议设置每日自动备份脚本、心跳监测与 Gateway 自动重启机制,并在连续重启失败时自动回滚配置。也支持通过 Tailscale 或 VPS 反代 SSH 连接进行远程 AI 辅助修复。