The Agentic Self:AI Agent 架构与自我提升方法的相似性分析

一、新闻概述

1. 标题

The Agentic Self:AI Agent 架构与自我提升方法的相似性分析

2. 发布时间

2026 年 1 月 2 日

3. 来源

Murat Demirbas 博客(Metadata)

二、核心内容

1. 事件摘要

A. 主要内容

这是一篇关于 AI Agent 架构设计的观察性文章,作者发现 AI Agent 的工程技巧与人类自我提升的建议有着惊人的相似性。

B. 核心亮点

  • AI Agent 的三大核心习惯与人类自我提升方法高度一致
  • 写作、自我对话、角色扮演是智能的关键
  • 这些简单习惯构成了推理的核心机制

2. 关键信息

A. 核心观点

2025 年是 Agent 之年,AGI 的目标已经转移,我们不再要求 AI 仅仅"对话",而是要求它"行动"。

B. 三大核心习惯

  1. 写下来(Writing things down)
  2. 自我对话循环(Talking to yourself in a loop)
  3. 扮演他人(Pretending to be someone else)

C. 涉及技术领域

  • 大语言模型(LLM)
  • AI Agent 系统
  • 多智能体系统
  • 上下文窗口管理

三、详细报道

1. 主要内容

A. 写作的非凡有效性

文章引用了图灵奖得主 Manuel Blum 教授在《给研究生新生的建议》中的观点:

"没有写作,你只是一个有限自动机。有了写作,你就拥有了图灵机的非凡力量。"

核心原理

  • 人类工作记忆有限,类似有限自动机
  • 写作将记忆卸载到纸上,形成外部存储
  • 通过外部化内部状态,可以从简单的模式匹配器进化为强大的思考者

在 AI Agent 中的应用

  • LLM 的上下文窗口有限,有效注意力范围受限
  • 解决方案:给 Agent 提供草稿纸
  • 强制 AI 在执行代码前先写下计划
  • 提供内存缓冲区存储事实供后续使用
  • 本质上是要求 AI 做笔记
graph LR
    A[有限上下文窗口] -->|需要扩展| B[外部记忆系统]
    B --> C[草稿纸/计划]
    B --> D[内存缓冲区]
    C --> E[复杂问题解决]
    D --> E
    E --> F[鲁棒思考者]

AI Agent 外部记忆架构

B. 思考就是自我对话循环

历史背景

  • 长期以来,LLM 被视为简单的输入输出机器
  • DeepSeek 通过在模型回答前暂停,提示它先"思考",改变了这一范式
  • 对计算机而言,"思考"意味着生成对用户隐藏的文本:内部独白

核心引言

  • "写作是自然界让你知道你的思考有多草率的方式" —— Guindon
  • "如果不写作就思考,你只是以为自己在思考" —— Leslie Lamport

Agent 循环机制

graph TD
    A[开始] --> B[行动/写作]
    B --> C[推理]
    C --> D{检查}
    D -->|需要改进| B
    D -->|满意| E[完成]
    C --> F[自我提问]
    F --> G["我应该检查这个假设吗?"]
    F --> H["这看起来不对,让我再试一次"]
    G --> C
    H --> B

Agent 思考循环流程

思考不是一个瞬时的过程,而是一个循环。Agent 通过与自己对话,将复杂问题分解为可管理的部分。

C. 角色扮演:第二自我效应

理论来源
文章提到《The Alter Ego Effect》这本书,其核心思想是采用一个人设可以释放隐藏的能力。通过进入特定角色,你可以绕过自己的抑制,触发一套定义的行为。

实际案例

  • 碧昂丝在舞台上有"Sasha Fierce"
  • 大多数运动员有他们的"比赛面孔"

在 AI Agent 中的应用
这种技术被称为"角色提示"(Role Prompting)或"多智能体系统"(Multi-Agent Systems)。

具体实践

  • 让单个 AI"编写代码"可能只能做得中等水平
  • 但如果分配:

    • 一个 AI 担任"架构师"规划代码
    • 一个 AI 担任"工程师"编写代码
    • 一个 AI 担任"评论家"审查代码
    • 结果会呈指数级提升

技术原理
这些人设不仅仅是戏剧效果,它们是归纳偏置。它们约束了搜索空间。就像采用"严格编辑"的人设帮助作家删减废话一样,给 AI 分配"调试器"的角色会迫使它寻找错误,而不仅仅是生成文本。

Advisor 模型
Advisor 模型作为元思考者。它们不直接执行任务,而是监控其他 Agent,标记风险,指导决策。在编码中,Advisor 可能警告架构师设计有风险,或引导工程师远离易错代码。通过提供这种高级监督,Advisor 让 Agent 能够专注于即时任务,同时保持长期目标,使多智能体系统更具战略性。

graph TB
    subgraph 多智能体系统
        A[架构师] -->|规划| B[工程师]
        B -->|编写| C[代码]
        D[评论家] -->|审查| C
        E[Advisor] -->|监控| A
        E -->|指导| B
        E -->|风险评估| D
    end

    C -->|输出| F[高质量解决方案]

多智能体协作架构

2. 技术细节

A. 上下文窗口管理

LLM 的上下文窗口是其有效注意力范围,类似于人类的工作记忆。当尝试在一个呼吸中解决 50 步的编码问题时,它会失败。

解决方案

  1. 草稿纸机制:在执行前写计划
  2. 内存缓冲区:存储事实供后续使用
  3. 外部化内部状态:将状态卸载到数字纸上

B. 推理循环机制

推理不是即时的,而是一个过程。Agent 遵循循环:行动/写作 -> 推理 -> 重复。这个循环允许:

  • 将复杂问题分解为可管理的部分
  • 自我质疑和验证
  • 迭代改进

C. 多智能体协作

不同角色的 Agent 协作可以产生指数级的质量提升:

  • 角色不仅仅是戏剧效果,而是归纳偏置
  • 约束搜索空间,提高输出质量
  • Advisor 模型提供元认知层面的监督

3. 未来发展方向

A. 通用工作流程

文章提出,可能我们只是发现了利用基于模式匹配的原始智能的最佳方式:一个简单的通用工作流程:

  1. 写下来
  2. 讨论/尝试
  3. 检查工作

这些步骤可能提供了维持推理所需的最小脚手架,形成了思维的核心机制。

B. 形式化方法的作用

Lamport 对 Guindon 的推论:"数学是自然界展示我们的写作有多草率的方式。"

数学填补了散文留下的漏洞。写作对思维的作用,数学对写作也起同样的作用。这可能是符号 AI 和形式方法变得重要的地方。

  • 编写规范已经能磨炼思维
  • 将其形式化可以再次磨炼它
  • 使推理尽可能精确和可靠

四、影响分析

1. 行业影响

A. AI Agent 设计趋势

2025 年确实是 Agent 之年,行业从"对话型 AI"转向"行动型 AI"。这种转变带来了:

  • 更复杂的应用场景
  • 更高的可靠性要求
  • 更多的工程创新

B. 技术方向

这篇文章揭示了一个有趣的观察:最有效的 AI 技术往往与人类最有效的学习方法相似。这可能暗示:

  • 通用智能的核心机制是通用的
  • 简单的习惯比复杂的算法更重要
  • 外部化推理是扩展智能的关键

2. 对 AI 研究的启示

A. 简约性原则

三大核心习惯都极其简单,但效果非凡。这提示研究者:

  • 不要过度复杂化 Agent 架构
  • 基础机制比花哨功能更重要
  • 外部化和循环是关键

B. 形式化验证的价值

文章最后提到形式方法的重要性,这预示着:

  • 符号 AI 可能与神经网络结合
  • 形式验证可以提高 Agent 的可靠性
  • 数学规范将成为 Agent 开发的重要部分

五、各方反应

1. 作者观点

Murat Demirbas 是 MongoDB Research 的首席研究科学家,前 AWS 员工,前纽约州立大学布法罗分校教授。他的观察来自于分布式系统、数据库、云计算、形式方法和神经符号 AI 的工作经验。

他认为:

  • AI Agent 的工程技巧与人类自我提升建议惊人相似
  • 这些习惯"几乎太简单了"
  • 写作、自我对话、角色扮演是智能的核心

2. 相关阅读

文章提到还有相关文章《Too Close to Our Own Image?》,暗示可能还有更多关于 AI 与人类相似性的思考。

六、技术总结

1. 核心洞察表格

人类自我提升方法AI Agent 实现技术原理
写笔记草稿纸/内存缓冲区外部化内部状态
思考循环内部独白/推理循环迭代优化
扮演角色角色提示/多智能体归纳偏置
找教练Advisor 模型元认知监督

2. 架构演进图

graph LR
    A[传统 LLM] -->|输入输出机器| B[对话型 AI]
    B -->|添加推理循环| C[思考型 Agent]
    C -->|外部记忆| D[记忆增强 Agent]
    D -->|多角色协作| E[多智能体系统]
    E -->|元认知监督| F[战略级 Agent]

AI Agent 架构演进

3. 通用推理框架

文章提出的通用工作流程可以总结为:

graph TD
    A[复杂问题] --> B[写下来]
    B --> C[分解问题]
    C --> D[讨论/尝试]
    D --> E[执行行动]
    E --> F[检查结果]
    F -->|不满意| D
    F -->|满意| G[完成]

通用推理框架

七、结论

这篇文章提出了一个深刻的观察:AI Agent 的核心技术竟然与人类自我提升的经典建议高度一致。写作、自我对话、角色扮演这三大简单习惯,构成了扩展智能的通用机制。

这不仅是技术创新的有趣观察,更是对智能本质的深刻思考。也许,真正的智能不在于复杂的算法,而在于这些简单而强大的基础机制。

正如 Manuel Blum 所说:"没有写作,你只是一个有限自动机。有了写作,你就拥有了图灵机的非凡力量。"这句话既适用于人类,也适用于 AI。


参考资料

  1. The Agentic Self: Parallels Between AI and Self-Improvement
最后修改:2026 年 01 月 16 日
如果觉得我的文章对你有用,请随意赞赏