
Hermes 最危险的地方,是它把失败也变成了资产。
这句话听起来有点绕。
但它可能正好戳中了这一轮 Agent 竞争里最容易被忽略的地方:大部分人还在问 Agent 现在能做什么,Hermes 问的是,Agent 用了三个月之后会不会变得不一样。
OpenClaw 已经证明了一件事。
AI 不应该永远困在聊天框里。它可以接消息平台,可以跑终端,可以调浏览器,可以把邮件、文件、日程、自动化脚本接进同一套执行系统里。
它像一只被放出来的手。
Hermes 想做的不是另一只手。
它更像一个会记住自己怎么摔过跤的同事。
这篇不装亲测。判断只来自公开文档、GitHub 发布记录、用户反馈,以及和 OpenClaw 最新版本的对照。
截至 2026 年 5 月 12 日,GitHub 页面显示,Hermes Agent 已经约 145k stars,最新正式版本是 v0.13.0,发布时间是 2026 年 5 月 7 日。
OpenClaw 仍然更大,GitHub 页面显示约 371k stars,最新正式版本是 v2026.5.7,页面顶部还有 2026.5.10-beta.5 预发布版本。
如果只看声量和成熟度,OpenClaw 还在前面。
如果只看连接渠道、插件生态、运行稳定性、社区体量,Hermes 也没有一夜之间把差距抹掉。
但 Hermes 危险的地方,不在这里。
它换了比赛题目。
OpenClaw 的价值很直接。
你给它工具,给它配置,给它授权,它去执行任务。这个路径非常清楚,也非常有力量。过去 AI 像一个坐在桌前只会回答问题的人,OpenClaw 给它装上了手脚。
问题也在这里。
手脚再强,如果每一次任务结束之后,经验都没有留下来,Agent 就会不断回到起点。
你纠正过它一次,它下次不一定记得。
它绕过一个坑,下次可能还会绕回去。
你把一套流程跑通了,如果没有把它整理成 Skill、配置、提示词或者文档,它很难自然变成下一次的默认能力。
OpenClaw 当然也在补这块。它的最新版本仍在快速推进插件、渠道、cron、模型路由、会话和安全修复。它不是一个停在原地的执行器。
但 Hermes 的产品叙事从第一天就更激进。
它不是说“我能替你干活”。
它说的是:我会从干活这件事里长出下一次的能力。
这个差别很小,也很大。
小到普通用户第一天可能感受不到。
大到如果这个循环真的跑通,三个月后的 Hermes 和第一天的 Hermes,就不该是同一个 Agent。
很多人看 Hermes,会先看到 Learning Loop。
任务做完之后,Hermes 会判断这次经历值不值得保存。如果工具调用足够复杂,如果中间犯过错又修回来,如果用户做过纠正,如果它走出了一条不明显但有效的路径,这些都可能触发沉淀。
沉淀的结果,是一个 Skill。
官方文档里,Hermes 把 Skill 叫作程序性记忆。它会在复杂任务、错误修复、用户纠正、非显然工作流之后创建 Skill;后续修改时,优先用 patch,而不是整篇重写。
表面看,这是一个“自动写 SOP”的功能。
但真正有价值的地方不是 SOP。
是责任转移。
过去我们使用 Agent,经验沉淀这件事主要靠人。
人要记得哪里踩坑,人要把命令存下来,人要把提示词整理好,人要把一次成功路径改成复用模板。
Hermes 的赌注是:这件事应该由 Agent 自己主动做。
如果它做对了,一个用户每天重复处理的工作流,就不会只是“今天又省了 10 分钟”。它会变成一个持续变厚的个人操作系统。
写周报,第一次只是让 Agent 帮你查资料。
第二次,它知道你不喜欢空泛结尾。
第三次,它知道你会先要事实表,再要观点段。
第十次,它可能已经把这套路径写成一个专属 Skill,只在需要时加载,不占满上下文。
这才是 Learning Loop 的真实意义。
它不是让 Agent 变勤快。
它是让使用本身开始产生复利。
Agent 记忆这件事,听起来浪漫,做起来很脏。
什么都记,迟早变成垃圾堆。
什么都不记,永远像临时工。
把所有内容塞进系统提示,成本爆炸,还会污染判断。完全交给模型自己判断,又会遇到另一个麻烦:它可能记住了不该记的,忘掉了真正重要的。
Hermes 的记忆系统有一个清楚的取向:把记忆分层。
按公开资料拆开看,可以把它理解成四层。
常驻记忆,是每次会话都要带上的东西。官方文档里提到 MEMORY.md 和 USER.md 两个文件,前者存环境、项目、惯例和经验,后者存用户偏好、沟通风格和期待。它们有严格字符上限,目的不是让 Agent 什么都背,而是逼它只带最关键的东西上桌。
会话检索,是把过去的对话留在数据库里,需要时再查。官方文档提到 Hermes 会用 SQLite 和全文检索查历史会话,再把相关部分摘要后注入当前任务。这个设计的好处是,历史不必一直占着上下文,但也没有彻底消失。
技能记忆,是 Learning Loop 的产物。它记的不是“用户喜欢什么”,而是“这类事怎么做”。这很关键,因为偏好和流程不是同一种记忆。前者像性格,后者像肌肉。
外部记忆和用户建模,是更长期的扩展层。Hermes 官方文档列出了 Honcho、Mem0、Supermemory 等外部 memory provider。它们适合处理更深的跨会话用户画像、知识图谱、语义搜索和长期关系。
这四层拼在一起,回答的是同一个问题:
一件事到底该放在哪里?
需要每次都知道的,放常驻记忆。
只在特定话题里有用的,留给会话检索。
可以反复执行的,做成 Skill。
会慢慢塑造关系的,交给外部记忆和用户建模。
这对使用者的改变很具体。
你不再需要把所有东西都写进一个巨大配置文件里。
你也不需要指望 Agent 靠玄学记忆突然懂你。
你开始拥有一个分工明确的记忆系统:短期上下文负责眼前,长期偏好负责关系,流程技能负责复用,外部记忆负责厚度。
这比“记住你”四个字扎实得多。
把 Hermes 写成 OpenClaw 的全面替代,现在还太早。
OpenClaw 仍然是更成熟的执行平台。
它的 GitHub 体量更大,更新频率很高,最新正式版仍在修插件发布、模型路由、cron 状态、渠道命令、会话缓存、安全权限等大量细节。它也更像一个已经被真实生产环境反复挤压过的系统。
Hermes 的最新正式版 v0.13.0,则把重点放在另一个方向:多 Agent Kanban、/goal 跨轮目标锁定、Checkpoint v2、网关重启后的会话恢复、no_agent cron 模式、默认开启敏感信息脱敏,以及 Curator、Provider 插件化、长期记忆 session key 等能力。
这不是简单的你有我也有。
OpenClaw 的强项,是把 Agent 接进世界。
Hermes 的强项,是让 Agent 不断改造自己。
功能差距还在,但尺子已经变了。
渠道、生态、社区规模,OpenClaw 仍然占优。
自我沉淀、技能维护、长期记忆和多轮目标保持,Hermes 正在把差距往另一条赛道拉。
这也是为什么 Hermes 能成为真正对手。
真正的对手不是复制你。
真正的对手是让用户开始用另一套标准评价你。
大部分 AI 工具都有一个尴尬瞬间。
第一天很惊艳。
第三天开始重复。
第十天你发现,它还是要你不断解释同一套偏好、同一批项目、同一种格式、同一些不要犯的错。
于是你开始维护提示词。
维护配置。
维护模板。
维护一堆你自己都不想看的说明文档。
Hermes 想把这件事倒过来。
不是让人类越来越会提示 Agent,而是让 Agent 越来越会服务同一个人。
这正是“用得越久越值钱”的含义。
过去,这个逻辑只属于人。
一个合作很久的编辑,知道你讨厌什么标题。
一个合作很久的助理,知道你开会前要哪三份资料。
一个合作很久的工程师,知道某个项目里的坑在哪。
工具通常不具备这种关系属性。
工具只会老化,或者升级。
Hermes 把 Agent 往另一个方向推:它既是工具,又开始拥有关系里的时间厚度。
这个判断不需要夸大。
今天的 Hermes 还远没到可以放心托付一切的程度。它仍然有安装、维护、信任、安全、上下文污染、记忆质量这些现实问题。一个能不断学习的 Agent,也可能不断学坏,或者把错误经验固化成看似聪明的捷径。
但方向已经很清楚。
Agent 的竞争,不会永远停在“谁能接更多平台”“谁能跑更多工具”“谁的配置更方便”。
那是第一阶段。
下一阶段会问一个更难的问题:
你愿不愿意把自己的工作方式,交给一个会积累经验的系统?
如果答案是愿意,OpenClaw 代表的是今天最顺手的执行入口。
Hermes 代表的,则是一个更危险的承诺:你今天教它的一切,明天都可能变成它的一部分。
Agent 会进化,技术上已经不再像科幻。真正难的问题变成另一个:当一个系统开始保存你的偏好、错误、捷径和脾气,你还愿不愿意让它离你越来越近?