[NODE] AI Agent
- 类型: 概念
- 定义: 能够自主感知环境、做出决策并执行动作的人工智能系统
关系
| 关系 | 目标 | 说明 |
|---|
| requires | LLM | 大语言模型作为推理核心 |
| requires | NLP | 自然语言理解与生成 |
| enables | Physical AGI | 在物理世界中的应用 |
| part_of | AGI | 通用人工智能的关键组件 |
| implemented_by | LangChain | 主流开发框架 |
| enhanced_by | Memory 系统 | 上下文记忆增强(记住) |
| enhanced_by | 策略网络 + RL | 自学习优化(学会) |
| uses | ReAct 范式 | 推理+行动循环 |
| requires | 终身学习 | 持续进化能力 |
| constrained_by | 人机分工原则 | 人负责元认知,AI 负责信息处理 |
| explained_by | INFO-113/114 | AI 智能本质:关联计算 + 涌现三层 |
核心范式:ReAct
循环:Thought(思考)→ Act(行动)→ Observation(观察)→ ...
| 组件 | 作用 |
|---|
| Thought | 决定下一步该做什么 |
| Act | 执行动作(工具调用) |
| Observation | 环境反馈结果 |
ReAct vs CoT
| 范式 | 能力边界 |
|---|
| CoT | 模型内部知识 × 推理能力 |
| ReAct | (内部知识 + 外部工具) × 推理能力 |
能力增强路径
基础 Agent (LLM + Tools)
↓ + Memory 系统
记忆型 Agent (能记住用户/上下文)
↓ + 策略网络 + RL
自学习 Agent (能从交互中优化)
↓ + 终身学习
进化型 Agent (能持续学习不遗忘)
| 增强层 | 作用 | 方案 |
|---|
| Memory | 让 Agent 记住 | 三维记忆系统 (INFO-057) |
| 自学习 | 让 Agent 学会 | ReAct + PPO (INFO-009) |
| 终身学习 | 让 Agent 进化 | 记忆重放 + 适配器 (INFO-077) |
工程实现:Agentic Loop
while True:
context = gather_context() # 收集上下文
response = llm.think(context) # LLM 推理
if response.is_done():
break
result = execute(response.action) # 执行动作
context.add(result) # 更新上下文
(参考 INFO-061 Claude Code 架构)
三维记忆系统
| 记忆类型 | 功能 | 终身学习对应 |
|---|
| 语义记忆 | 世界知识 | 预训练知识 |
| 情景记忆 | 交互历史 | 核心集/记忆重放 |
| 程序记忆 | 技能/流程 | 适配器/专家模块 |
关键人物
| 人物 | 贡献领域 |
|---|
| Sherwin Wu | OpenAI Agent API |
| Jim Fan | Physical AGI / 机器人 |
| Lilian Weng | Agent 安全 |
| Oriol Vinyals | 复杂任务 Agent |
理论基础
| 领域 | 代表人物 |
|---|
| 深度学习 | Jürgen Schmidhuber |
| NLP | Christopher Manning |
| 可泛化 AI | François Chollet |
| AGI | Demis Hassabis |
人类 EA 工作法的启发
来源:[[INFO-20251225-097]] 虚拟EA工作法
人类顶级 EA 的工作方式,对 AI Agent 设计有直接参考价值:
核心原则:先建模,再接管
| 人类 EA | AI Agent 启发 |
|---|
| 不急于"替你做",先理解客户 | Onboarding 阶段收集用户偏好 |
| 2-3 周持续观察决策方式 | 渐进式建立用户模型 |
| 审计邮箱现状形成假设 | 先观察用户行为再优化 |
Onboarding 建模提问(可迁移)
- 典型的工作流程是什么?
- 什么时候处理、多久处理一次?
- 哪里顺、哪里不顺?
- 需要代执行,还是先草稿确认?
根据用户类型调整节奏
| 用户类型 | EA 策略 | Agent 策略 |
|---|
| 低频型 | 提前整理,给 daily brief | 批量汇总,定时推送 |
| 高频型 | 协作信号系统,约定边界 | 实时同步,明确标记状态 |
沟通机制设计
| 类型 | 渠道 | Agent 实现 |
|---|
| 紧急 | 短信息提醒 | 推送通知,只限紧急 |
| 日常 | End-of-day summary | 日终报告:做了什么/推进了什么/待处理 |
| 同步 | Daily Sync 文档 | 共享状态面板 |
质量评估标准
用户"更安静、更自由",就是做对了。
- 噪音是否减少
- 用户是否有更多时间
- 是否开始承担"前置思考"(带备选方案而非只抛问题)
关联条目
INFO
- INFO-20251225-097:虚拟EA工作法(人类助手的最佳实践)
- INFO-20251219-001:AI Agent 领域 X 关注列表
- INFO-20251219-003:Memory 系统技术方案
- INFO-20251219-009:自学习 Agent 技术方案
- INFO-20251219-057:AI Coding 三维记忆系统
- INFO-20251219-061:Claude Code Agentic Loop
- INFO-20251219-075:ReAct vs CoT 范式对比
- INFO-20251219-077:终身学习技术路径(稳定性-可塑性平衡)
- INFO-20251219-082:OpenSpec 框架(Agent 行为 Spec 化)
- INFO-20260114-113:AI 智能本质(关联计算引擎)
- INFO-20260114-114:智能涌现三层模型(AI 能力如何产生)
- INFO-20260114-115:AI 前沿研究综述(学术验证)
- INFO-20260115-117:用户认知图谱(Agent 的上层应用——从记住到理解心智)
RULE
- RULE-人机分工原则:人负责元认知层,AI 负责信息处理层
NODE
- NODE-终身学习:Agent 的持续进化能力
- NODE-元认知:人类元认知 vs AI 信息处理的对比