余一(HowOneAI)AI 复利工程 — 小红书视频完整提取与分析
娃彩 / 2026-04-01
余一(HowOneAI)AI 复利工程 — 小红书视频完整提取与分析
来源:小红书 @HowOneAI-余一,两条视频笔记 提取方式:yt-dlp 下载视频 → SiliconFlow SenseVoice 语音转文字 → 人工校对分析 提取时间:2026-03-20 分析方向:agent 记忆与进化机制(对娃彩/Stellar 等 agent 的启示)
视频一:怎么构建AI复利——让AI积累自己的能力和经验
链接: https://www.xiaohongshu.com/explore/695fcdc600000000220225d8 发布日期: 2025-01-08 | 互动: 58赞 / 45收藏 / 2评论
完整内容转录(已校对)
余一分享了他实践 AI 复利工程的具体案例。核心内容:
1. 复利工程的核心定义
“告别跟 AI 协作的一次性工程——你跟他合作了,拿到了结果,但下一次又重新开始。复利工程不仅仅只是解决今天的问题,不仅仅只是做好今天的事情,我们要从系统当中去构建能力,可以让他不要再犯同样的错误,或者是同一类的错误。”
2. 经验积累的方向
“同一类的任务不用从零开始,而是从之前的经验开始,甚至吸收上一次的经验能做得更好。”
3. 关键实践:克制"教导欲",让 AI 自己从错误中学习
“需要人去克制自己……有一些错误是要让下属自己去犯,然后从自己犯的错误里面,或者是说自己做的对的事情里面去学习到下次怎么能做的更好。引导他从自己的错误当中去总结经验去做学习。”
4. 具体操作方法
“我最近在做的事情就是:不会跟 AI 说他哪里做错了,以及哪里能够做的更好,而是跟他说结果是什么,你自己推断一下原因。然后如果推断反复出错,还是会给一些指导。但是会问他说为什么你推断不出来。”
“他可能推断了前面一次两次都出现错误,但是第三次对了。其实你也要让他去反思和复盘一下,为什么前两次错了,第三次就对了。”
5. 引用 Every 公司的复利工程体系
余一提到之前分享了 Every(一家AI公司)如何落地复利工程体系,建议搭配观看。
评论区有价值的补充
- 不管事的爸爸日常: “让 AI 把他从错误推导到正确推导的过程,也让 AI 自己总结,积累到 md 文件中。继续为 AI 搭建自己业务中,AI 可以获取到反馈的环境,达到 AI 也可以犯错误,快速迭代”
视频二:skill 和 AI 复利工程——看完你就知道怎么做了
链接: https://www.xiaohongshu.com/explore/696f98b5000000002200840b 发布日期: 2025-01-20 | 互动: 79赞 / 94收藏 / 4评论
完整内容转录(已校对)
余一借一泽的 skill 终极指南,从复利工程角度讲解 skill 构建。核心内容:
1. Skill 的本质定义——以实习生比喻
“你会把公司的案例、配色模板打包发给他。你还会写个备忘录,告诉他,如果遇到这种情况,千万别那么干,要这么干。在这个比喻里,你打包给实习生的这个文件夹就是 agent skill。”
“**Skill 的本质不是代码,而是被结构化的经验。**它是你在这个领域摸爬滚打多年总结出来的隐性知识,通过自然语言文档、简单的脚本和素材挂载到了 AI 身上。”
2. Skill 作为复利的最小单位
“从复利工程的视角,skill 是连接通用智能和垂直应用的桥梁,也是普通人构建 AI 复利的最小单位。”
3. Skill vs Workflow(工作流)——关键对比
“工作流是铁轨。你必须预设好每一站,如果用户输入的东西稍微偏离了你的预设,或者出现了一个边缘情况……工作流就会报错或者卡死。因为它没有脑子,它只有流程。”
“但 skill 不一样。**Skill 是路书加老司机。**你给 AI 的是一个 skill 文档(路书),当 AI 执行任务时,它不是死板地跑流程,而是调用它那个通用大模型的大脑在实时思考。”
举例:笔记助手如果用工作流,用户传个图片可能崩了。但用 skill,AI 会"动脑子"——没有直接处理图片的指令,但它会想"在这个场景下,我应该先调用一个 OCR 工具,把图片转成文字,再继续按 SOP 执行。"
“这种容错率和灵活性就是 skill 最大的价值。我们不需要把所有情况都预设好,可以依赖 AI 的智商去处理边缘情况。”
4. 复利工程的三步公式
“把隐性知识显性化,把显性知识资产化,把资产自动化。”
5. 什么时候该创建 Skill——三个信号
- “当你发现自己在向 AI 反复解释同一件事的时候”
- “当任务需要特定的知识、模板或素材才能做好时”
- “当一个任务需要多个流程协同完成时”
6. 干中学——用 skill 创造 skill
“Claude Code 有一个 skill creator(技能创造者),这本身就是一个 skill。用魔法来打败魔法,用技能来创造技能。”
“你不需要自己写 skill 文档,只需要像个产品经理一样,把需求说清楚,把素材给到位。”
核心逻辑提炼
余一的 AI 复利工程 = 两个核心机制
机制一:经验自主积累(视频一)
AI 执行任务 → 给出结果(不告诉对错)
→ AI 自己推断原因 → 推断正确?
→ 正确:总结为什么对 → 写入经验
→ 错误:继续推断(给适当指导)→ 最终正确后
→ 复盘"为什么前几次错、这次对" → 写入经验
关键原则:
- 不直接告诉 AI 哪里错了,而是给结果让它自己推断
- 克制教导欲——像带下属一样,让 AI 自己犯错、自己学习
- 错误复盘比正确执行更有价值——“为什么前两次错了第三次对了”
机制二:Skill 体系化(视频二)
隐性知识(散落在人脑中的经验)
→ 显性化(写成自然语言文档 + 脚本 + 素材)
→ 资产化(结构化为 skill,可复用、可传承)
→ 自动化(挂载到 agent 上,自动调用)
关键原则:
- Skill ≠ 代码,Skill = 被结构化的经验
- Skill > Workflow:路书+老司机 > 铁轨
- Skill 是复利的最小单位——投入一次封装,成千上万次享受收益
复利执行标准
| 维度 | 标准 | 余一原话依据 |
|---|---|---|
| 错误处理 | 不告诉 AI 对错,让它自己推断原因 | “跟他说结果是什么,你自己推断一下原因” |
| 错误复盘 | 多次试错后必须复盘"为什么前几次错、这次对" | “让他去反思和复盘一下” |
| 克制教导 | 人不过度干预,给空间让 AI 自己总结 | “需要人去克制自己的掌控欲、教导欲” |
| 经验持久化 | 经验写入 md 文件,跨会话积累 | 评论区补充 + 余一体系隐含 |
| Skill 提炼 | 反复出现的经验提炼为结构化 skill | “反复解释同一件事时→该创建 skill” |
| 三步公式 | 隐性知识→显性化→资产化→自动化 | 视频二核心结论 |
| 用 skill 造 skill | skill 本身可以自我繁殖 | “用技能来创造技能” |
对我们 Agent 记忆进化机制的启示
一、我们已经做到的(验证方向正确)
| 余一的要素 | 我们的对应实现 | 状态 |
|---|---|---|
| 经验持久化(md文件) | memory/YYYY-MM-DD.md + MEMORY.md 两层记忆 | ✅ 已有 |
| Skill 体系 | 已安装 HDD/SDD/Save Game/Load Game 等 skill | ✅ 已有 |
| 用 skill 造 skill | 已安装 skill-creator | ✅ 已有 |
| 经验提炼三步 | 心跳时定期从日记 → MEMORY.md 提炼 | ✅ 已有 |
二、我们缺失的关键环节
A. 「错误自主复盘」机制——余一最独到的一点
余一的核心洞察:不是人告诉 AI 哪里错了,而是让 AI 自己从结果中推断错因,并复盘"为什么前几次错、这次对了"。
我们目前的模式:
- 老板在异步看板的反馈区直接指出问题 → 娃彩"静默处理"
- 这本质上是"被告知错误→修正"模式,不是"自主推断→自主复盘"模式
可操作改进:
引入"结果反馈→自主复盘"流程:当任务结果不理想时(老板驳回、数据验证失败等),娃彩不应该只是修改,而应该:
- 先独立分析"我为什么判断错了"
- 记录完整的认知转变链(最初判断 → 错误原因 → 修正后判断 → 为什么这次对了)
- 写入
self/journal/lessons-learned.md
五层检查线自检加入"复盘"环节:每次任务被驳回后,除了修正输出,还要更新一个"犯错模式库"——什么类型的错误我容易犯,根因是什么。
B. 「反复解释→提炼 Skill」的自动触发
余一的信号:“当你发现自己在向 AI 反复解释同一件事的时候"就该创建 skill。
目前我们缺少一个检测机制:老板是不是在反复说同一类反馈?如果是,说明这应该被提炼为一条永久规则(skill 或 AGENTS.md 的补充),而不是每次在反馈区重复。
可操作改进:心跳时扫描近期反馈历史,如果发现同类反馈出现 ≥2 次,主动提炼为规则写入 AGENTS.md 或对应 skill。
C. 「Skill > Workflow」的理念确认
余一明确否定了 workflow(工作流/铁轨模式),推崇 skill(路书+老司机模式)。这与 OpenClaw 的 skill 架构高度一致——我们的 SKILL.md 就是"路书”,agent 的大模型能力就是"老司机"。
但我们可以做得更好:当前的 skill 偏向「操作手册」(怎么用工具),缺少「经验手册」(什么情况下该注意什么)。余一的定义更丰富——skill 不只是 SOP,还包括"如果遇到这种情况,千万别那么干,要这么干"的反面经验。
可操作改进:在现有 skill 中补充"陷阱和避坑"部分。比如 HDD skill 可以加入"常见的假设偏差模式",Save Game skill 可以加入"容易遗漏的上下文类型"。
三、最关键的一个认知转变
余一的"克制教导欲"对老板与 agent 的协作模式有直接启示:
当前模式(告知式):老板发现问题 → 在反馈区直接指出 → agent 修正 余一模式(引导式):老板给出结果评价 → agent 自己推断原因 → agent 复盘学习
后者的复利效应更强——agent 不只是"被修正了一次",而是"学会了一类判断能力"。
但这需要老板配合:反馈时不直接说"你错在XX",而是说"结果不符合预期,你自己推断一下为什么"。这个变化是否采用,需要老板决定。
检查线自检
- 事实来源:两条视频通过 yt-dlp 下载,SiliconFlow SenseVoice 语音转文字,所有引用内容均来自视频原文转录
- 独到见解:
- 识别出余一方法论的核心不是"记住经验"而是"错误自主复盘"——这是他与一般 AI 经验管理的本质区别
- 诊断出我们现有的"被告知错误→修正"模式与余一的"自主推断→复盘"模式之间的gap
- 提出"反复反馈→自动提炼 skill"的检测机制,这是余一"三个信号"的工程化落地
- 指出当前 skill 缺少"反面经验"维度(“千万别那么干”),不只是操作手册
