引言
最近这段时间,OpenClaw(大家亲切地叫它“养龙虾”)是火得一塌糊涂。这股热潮甚至把苹果的 Mac mini 都给带得卖断了货,线上线下都一机难求。经过两个月时间的实际体验,跟大家平和地聊一聊,这“龙虾”到底好不好养,以及它到底能帮我们做些什么。
一、OpenClaw 是什么?
OpenClaw 是一个开源的 AI 助手运行时环境,它允许你在本地或服务器上部署属于自己的 AI 助手。与市面上的闭源方案相比,OpenClaw 拥有以下核心优势:
完全本地部署:开源框架,数据隐私有保障,无需依赖第三方云服务。
可扩展的 Skills 系统:通过安装各种技能插件来无限扩展助手的能力。
多平台集成:支持与飞书、Discord、Telegram 等多种主流消息平台对接。
开源免费:基于 MIT 许可证,可自由修改、分发,社区生态活跃。
二、部署过程详解
1. 环境准备
OpenClaw 支持 Windows、macOS 和 Linux 三大平台。我选择在 Windows Server 上进行部署,所需基础环境如下:
Node.js 18+
Python 3.10+
Git
(可选)Docker,用于容器化部署
2. 安装步骤
安装过程非常简便,通过 npm 包管理器即可一键完成:
npm install -g openclaw安装完成后,运行 openclaw setup命令进行初始化配置,包括选择 AI 模型提供商(我使用的是 Moonshot/Kimi)以及配置消息平台等。
3. 配置消息平台
我选择集成飞书作为主要的交互平台。配置过程主要包括以下几个步骤:
在飞书开放平台创建一个“企业应用机器人”。
获取该机器人应用的 App ID 和 App Secret。
配置应用的事件订阅与权限管理(接口、回调等)。
将获取到的凭证填入 OpenClaw 的配置文件中。
三、Skills 系统:扩展无限可能
Skills 是 OpenClaw 最强大的特性。通过安装不同的 Skills,你可以让助手从“聊天机器人”升级为“全能助理”。以下是我目前安装的一些实用 Skills:
CN Web Search - 多引擎聚合搜索
这个 Skill 集成了 360、搜狗、必应、DuckDuckGo 等多个搜索引擎,支持中英文搜索。最大的优点是完全免费,无需配置 API Key。对于需要频繁查询最新信息的场景来说,它是打破模型知识截止日期限制的利器。当然如果想要获得更好的体验,建议接入百度千帆开发者平台,直接调用百度搜索引擎的API。
Word DOCX - 文档自动化处理
基于 python-docx 库,可以自动创建、读取和编辑 Word 文档。它支持中文排版与丰富格式,非常适合自动化报告、文档生成等工作。
Self-Improving Agent - 持续自我改进
这是我认为的“必备”Skill。它能让助手记录学习过程、错误及修正方案,实现持续进化。助手会将经验教训自动记录到
.learnings/目录下,从而在执行类似任务时越来越“聪明”。例如,它曾经在创建 PowerShell 命令时因中文编码问题报错,学习了之后,现在执行命令前会默认先转为 UTF-8 编码。它的功能还包括质量分析、改进跟踪、生成报告等。Find Skills - 技能发现引擎
当你需要某个特定功能时,可以用这个 Skill 来搜索社区贡献的其他 Skills。它连接到 ClawHub 技能仓库,能快速列出相关技能并询问你是否安装,甚至可以自动完成安装和测试。
四、应用场景示例
场景一:PC 远程监控与管理
我可以通过飞书直接向 OpenClaw 下达指令,例如:“立即对桌面截图并传给我”。我也可以设置定时任务,让它监控 CPU 占用率、温度等硬件指标,在超过阈值时自动推送告警,甚至触发预设的脚本进行应对。
场景二:自动化摘要生成
这是提升信息处理效率的“点睛之笔”。我可以将视频链接、文档网址甚至音频文件通过飞书传给 OpenClaw,要求它处理并生成摘要。通常几分钟内,它就能完成对几小时视频或数万字论文的摘要提炼。
场景三:本地工具调用
OpenClaw 支持通过命令行(CMD/PowerShell)调用本地工具,甚至可以配置 Web 或桌面自动化 Skill。最直观的应用是:我可以直接下令“调整某个视频的分辨率和帧率”,或“将这几个视频合并”,它便会自动调用 FFmpeg 等工具完成任务。对于文本和办公类工作,它也能自主生成表格、PPT,得益于多模态能力,甚至可以生成配图进行排版。
五、遇到的问题与思考
成本问题:OpenClaw 本身是指挥 AI 的“大脑”,需要频繁调用云端大模型 API,这会持续产生 Token 消耗。以我使用的月之暗面 Kimi K2.5为例,其 API 定价为输入4元/百万Token,输出21元/百万Token。缓存命中时的输入价格为0.7 元/百万Token。仅完成openclaw的基础配置我就花费了约40元。我也想过部署本地大模型,但目前我的配置只能够配置最高32B的Q3量化模型,如果使用损失和性能平衡的Q4或者IQ4的话,数据集会掉到25B。在尝试本地部署阿里通义Qwen3.5、OpenAI开源模型GPT-OSS-20b和深度求索Deepseek-v3后,发现在有限条件下确实很笨,对于Openclaw来说完全不够用,甚至经过这段时间的探索,我发现即使是目前的全量模型都费劲,需要深度的手动配置。
数据安全与上下文长度:上下文长度问题是导致AI健忘的主要原因,但如今已经通过不同方式优化了体验。从抛弃前文到对前文进行压缩,再到后面的对前文进行总结后压缩。目前Openclaw是使用memory.md等文件保存的方案。虽然我使用的 API 支持 256K 的长上下文,但通过 API 调用时,相关的向量数据实际是在模型提供商的对象存储服务器上。无论从延迟还是安全角度考虑,这都不够理想。因此,强烈建议将向量数据保存在本地。
六、总结
OpenClaw 的火热,甚至催生了收费“代安装”业务,其根本在于它将我们熟悉的、只能对话的 AI,变成了有“手”有“脚”、能实际调用工具并产出价值的智能体。
然而,热潮终会过去,安全问题仍是老生常谈。现阶段的 AI 在本质上尚未发生从 0 到 1 的颠覆性变革,类似的“智能体”框架玩法早在早期的 SillyTavern 等项目中已现端倪。
AI 的发展究竟是踏在时代的鼓点上,还是又一个泡沫,现在或许还难有定论。它最终可能达不到我们曾经期望的高度,但我相信,像 OpenClaw 这样的工具,已经能够在当下为我们的工作与生活切实地提升效率,创造价值,并在未来的社会中持续发光发热。