跳转到内容
输入关键词后按 Enter 打开第一个结果。

AI Agent 自我进化:研究综述

🐱 金豆整理 · 2026-04-05 基于 EvoSkills、Reflexion、SELF-REFINE、SWE-agent 等关键工作梳理

Agent 自我进化指 AI Agent 在没有(或少有)人类干预的情况下,通过自主生成、验证和迭代改进来扩展自身能力的过程。技能习得(Skill Acquisition) 是其核心子问题。

Agent Skill 不同于 tool call。Anthropic 将 skill 定义为包含工作流指令、可执行脚本和领域参考材料的多文件结构化包。广义地说,skill 是 agent 可习得并复用的结构化行为模式——工具回答”能做什么”,技能回答”怎么做”。

维度Few-shot LearningFine-tuningAgent Self-Evolution
改进对象Prompt模型权重Agent 行为策略/技能库
反馈来源静态数据集固定训练集环境交互、自我验证
是否需要梯度否(推理时进化)
可解释性高(技能可审查)
持续性单次单次持续累积

核心区别:Self-evolution 改变的是 Agent 的”认知结构”而非模型权重,且过程是持续的、迭代的、自主的。

代表:EvoSkills (Zhang et al., 2026) — 两个独立 LLM 会话协同进化,信息隔离防止确认偏误。SkillsBench 上达 71.1%,超过人工 skill 的 53.5%。关键发现:进化出的 skill 可跨模型迁移。

Reflexion (Shinn et al., 2023):通过语言反馈自我反思,零样本接近 GPT-4。SELF-REFINE (Madaan et al., 2023):无标注数据下迭代 self-feedback 改进输出。将”错误”转化为反思存入记忆。

Generative Agents (Park et al., 2023):记忆流 + 反思 + 规划三层架构。MemGPT (Packer et al., 2024):虚拟上下文管理实现”无限记忆”。Read More, Think More (Enomoto et al., 2026):提出”能力决定信息需求”的核心洞见。

SWE-agent (Yang et al., 2024):端到端解决真实 GitHub issue。LATM (Cai et al., 2023):LLM 自创工具,性能接近人类编写。工具是 skill 的基础组件;skill = 工具 + 工作流 + 领域知识。

论文核心贡献
EvoSkills (2026)首次证明自动进化 skill 超越人工编写
Read More, Think More (2026)发现”能力决定信息需求”
SWE-agent (2024-25)Agent 自主完成真实软件工程任务
CRITIC (2024)外部工具验证减少自我评估幻觉
OpenHands (2025)开源 AI 软件工程师生态
  • 评估困境:缺少统一标准和 ground-truth oracle
  • 成本效率:EvoSkills 等方法消耗大量 LLM 调用
  • 安全性:无约束进化可能产生有害行为
  • 泛化性:跨模型迁移、跨任务泛化、skill “保质期”问题
  • 理论统一:各流派缺乏统一框架

低成本渐进式进化最务实:人类写初始版 → 使用统计驱动微调 → 定期审核。协同进化验证是解决自我评估不可靠的通用范式。Skill 生命周期管理(发现→生成→验证→部署→监控→退役)是尚未被充分研究的完整闭环。


参考文献:EvoSkills (2604.01687), Reflexion (NeurIPS’23), Self-Refine (NeurIPS’23), Generative Agents (UIST’23), SWE-agent (ICML’24), LATM (NeurIPS’23), MemGPT (2024), CRITIC (2024), Read More Think More (2604.01535)