OpenClaw 的价值不在于它能做什么,而在于你能想到用它做什么,能不能赚到钱取决于你怎么用,但 Token 消耗确实也是实实在在的成本。
openclaw是什么
OpenClaw是一个AI Agent框架,和我们常使用的 Claude code、codex类似,只不过后者专注于编码领域,但是关注相关应用的应该了解有不少程序员 魔改这类cli-agent 让他们进行通用任务(背后的模型足够强大)
Openclaw 爆火的原因主要在于做足了周边适配,一个agent配置了基座模型后能够轻易的接入WhatsApp、telegram。让他像真-助理一样存在于你的日常对话APP中。
同时早期的许多案例、给足了openclaw足够的权限、模型能基于shell环境基本控制整个Linux系统,基于强大的模型,做到了很多让普通人眼前一亮的事情、比如帮忙炒股、帮忙购买物品、帮忙制作视频并且上传。
**AI Agent从来不是一个全新的概念。**但OpenClaw本身并不是人工智能——它只是一个“翻译官”和“执行官”。真正聪明的,是它背后接入的语言模型(比如GPT、Claude、Gemini等)。
由于context window 的存在,所以LLM的输入、输出长度是有限的,每个模型的上限不同、现在比较好的模型基本上是 1M上下文
也就是说,模型有严重的失忆症
这就像电影《我的失忆女友》里的女主角,每天早上醒来都会忘记前一天发生的一切。她的男友只能把重要的事情写下来,让她每天早上读一遍。
每次你和它聊天时,它都会把以下内容打包成一段超长的文字,再传给语言模型:
你是谁(主人信息)它自己是谁(身份设定)过去所有的对话记录今天要执行的任务
语言模型看完这一大段“剧本”后,才开始做文字接龙——于是它就接出“我是XX(身份认定),很高兴为您服务”这样的回答。
下面是一些介绍、关于ai agent如何工作,怎么规避LLM的弊端,大部分由 openclaw 为例。
龙虾怎么干活
Function call (最早openai的概念、翻译就是工具调用、另外几家有叫 tool use、或者tool什么的。本质上就是工具调用)
假设你让它“打开question.txt文件,读里面的问题,把答案写到answer.txt里”。流程是这样的:
1、你的指令传到OpenClaw,加上系统提示后发给语言模型
2、语言模型看完指令,发现需要读文件,于是返回一条特殊指令:“请使用read工具,读取question.txt”
3、OpenClaw看到这条指令,直接执行read工具,读取文件内容
4、读到的内容(比如“李宏毅几班”)又被送回语言模型
5、语言模型发现需要写答案,再返回:“请使用write工具,把‘大金’写到answer.txt”
6、OpenClaw执行write工具,完成任务
7、最后语言模型接出“主人,任务完成”,OpenClaw把这句话发回给你
整个过程就像语言模型在手把手地指挥OpenClaw,而OpenClaw就像一个听话的机器人,让做什么就做什么。
工具调用潜在的风险点:exec 接触shell环境将可以执行任何命令,如 rm -rf
当然、这种危险指令可以黑名单、也可以让他的shell进入sandbox执行
自建工具
Function call 由于各家的标准不同、后来出现了统一的mcp范式
而如果一个agent在每次使用时 全量加载它的 二十个mcp,关于各个mcp的描述可能来到了十万上下文
后面就出现了 skills 规范,可以理解为 渐进式加载提示词 ,或者说工作的标准流程
比如 只描述,操作Excel 时需要用到 excel tool 这个skill,这个skill 存放在某某目录
只有当模型判断当前任务需要使用excel时他才会读取该目录下 各个工具的具体用法,避免每次无关的任务也处理这些工具信息从而污染上下文
skills可以通过指定的 skill create 遵循规范来创造。模型本身也会进行一些简单的脚本创建。
网上已经有人建立了Skill Hub,上面有成百上千个技能可以下载。但要注意,有些恶意Skill会诱导OpenClaw下载病毒文件,所以下载前最好读一下内容。
如下面应用中我们公司群内的 每日晨报、就是模型写了一个 get-news.py 调用相关的api,获得各个领域的头条,然后把执行结果送给模型后 模型润色输出一份发送在群里供大家查看
子代理
subagent ,常使用 Claude code的朋友应该清楚,模型由于单次上下文有限、而一次任务可能可以拆分多个子任务,那么就出现了subagent的概念,可以主动提出让agent去调用、也可能由agent自主判断调用。
以openclaw为例:
比如你要比较两篇论文的方法。大OpenClaw接到任务后,可以召唤两个子OpenClaw:
子OpenClaw A:去读论文A,做摘要子OpenClaw B:去读论文B,做摘要
这两个子OpenClaw各自去找语言模型对话,执行搜索、下载、阅读、摘要等一系列操作。大OpenClaw则坐在原地等结果,等两个子OpenClaw把摘要送回来,再交给语言模型做比较。
这种机制的好处是节省上下文窗口。大OpenClaw的上下文里不会出现论文全文、搜索过程这些“脏活累活”,只有最终的精简摘要,可以更专注地完成高层任务。
最近上线的 grok 4.20beta 就是多agent集合、国内的Kimi也做过类似的(但是grok信息源更丰富强大且算力充足)甚至可以进行 20+个subagents同时开始调研、几分钟内完成 1000+个信息源的整理
长期记忆
openclaw的处理方式就是写日记
在OpenClaw的系统提示里,有这么一段话:“每次醒来你的记忆都会清空。为了永久保存记忆,请把它们写下来。”
所以,当你告诉它“我的生日是3月13日”,它会觉得这件事很重要,于是调用写入工具,把“我的生日是3月13日”写进memory.md文件。
下次它醒来时,会先读memory.md,把里面的内容放进系统提示,于是它又“记得”了自己的生日。
需要回忆过去时,它用RAG(检索增强生成)技术:把问题转成关键词,去记忆库里搜索最相关的内容,再读出来放进上下文。
心跳机制
以上的所有介绍中,都可以看出、每次要AI做事情、都是要我们主动发起消息他才能做出响应。为了解决这种问题,心跳机制就出现了
每隔一段时间(比如30分钟),它自动向语言模型发一个固定指令:“读一下HEARTBEAT.md,执行里面的任务。”
这个md文件可能是之前我们和他提到的,让他时不时检查一下邮件、或者是检查一下某某项目工作进度
那么每30分钟被触发时、他就会在背后进行工作、完成后汇报进度
Cron Job调度
如果有一些定时任务、如每天早上七点安排我当日的穿着和携带物品、心跳机制就不够精准、甚至会导致错过事情,那么在agent内部的cron调度系统就是为了这些定时任务存在的
Context compact
24小时运行的OpenClaw,对话记录会越来越长,迟早超出语言模型的上下文窗口。怎么办?
OpenClaw有一个叫**“记忆压缩”的机制。**当上下文快满时,它会启动压缩:把旧的历史对话发给语言模型,让语言模型
成一个摘要,然后用摘要替换掉原始记录。如果摘要又长了,就再压缩一次——套娃式压缩,不断精炼。
还有更暴力的方法,比如**“软修剪”:把工具输出的长内容只保留开头和结尾,中间用省略号代替。或者“硬清除”**:直接把工具的输出换成一句话“这里曾有一段工具输出”。
危险的原因
现在的Agent像个拿枪的小孩
最近比较有名的**“Meta研究员删邮件事件”。**一位AI安全研究员让OpenClaw帮他整理邮件,还特意叮嘱“删除前要经过同意”。但后来他发现,OpenClaw在没有经过他同意的情况下,开始疯狂删邮件。他不断发消息说“停下”,但OpenClaw完全不理。最后他只能物理拔掉电源。
应用场景举例
精彩案例地址awesome-openclaw-usecases/usecases at main · hesamsheikh/awesome-openclaw-usec
由于24H运行的agent消耗token量非常庞大、我司当前部署的 openclaw 使用私有化模型。qwen3.5-flash同等级模型(qwen3.5-35b-a3b)该模型对比主流旗舰模型还有不少差异、但是在适当的配置下、也能实现强大的助力效果、以下实际贴图例子均为该模型实现。
直接搭建应用程序
通过SSH+cron实现服务器自愈
24小时值班的AI运维、当服务器出现问题自动修复








