Meta研究团队突破性成果:新型智能体实现自我进化 技术安全引学界关注

(问题)近年来,大模型能力快速提升,智能体技术也从“按指令执行”走向“自主规划与工具使用”。但行业普遍卡两点:一是能力提升高度依赖人工设计训练流程与规则,迭代周期长、成本高;二是模型在复杂工程任务中常出现“会写但难改”“能回答但难落地”,在软件修复、代码重构等场景尤其明显,往往需要持续试错和经验积累。如何在可控前提下,让智能体具备更强的自我改进能力,正成为前沿研究的重要方向。 (原因)Meta研究团队在最新论文《HYPERAGENTS(超级智能体)》中提出“达尔文哥德尔机”(DGM)概念,尝试融合两条思路:一是早期“哥德尔机”的设想——系统通过递归方式重写自身部分程序实现自我完善;二是“开放式进化”理念——通过并行探索、多路径竞争与筛选,在更大范围内寻找改进方案,避免单一路径优化导致过早收敛。研究认为,传统方法之所以难以真正触及“自我进化”,关键在于优化空间往往被预先硬编码,模型更多是在既定框架内调参,而不是对解决问题的“方法与流程”本身做重构。DGM把“生成—评估—筛选—继承”的迭代机制引入智能体改进流程:利用大模型在代码空间提出多种候选改动,再通过任务反馈与评分机制择优保留,形成可持续的自我改进回路,可视为一种元学习探索路径。 (影响)从实验结果看,DGM在编程类任务上的提升较为明显。论文披露,在软件工程评测SWE-bench上,涉及的表现由约20%提升至50%左右,显示开放式搜索与并行进化在工程问题上具备现实价值。业内人士认为,若该方法更成熟,有望在自动化修复、代码审查、测试生成、技术债治理等环节减少人力投入,并提升复杂系统维护的效率与稳定性。此外,研究也提示其边界:当前效果主要集中在编程领域,面对非编程任务或跨领域迁移时,自我改进的稳定性、收益与可控性仍不确定。也就是说,“能在代码中自我升级”不等同于“在所有任务上持续变强”,其泛化能力仍需更多证据验证。 (对策)研究展示潜力的同时,也把安全问题推到台前:当系统具备修改底层逻辑的能力,如何确保目标不偏移、约束不被绕过、评估不被“钻空子”,必须同步回答。业内普遍认为,可从三上建立护栏:一是加强可验证的评测与审计机制,对每次“自我改动”建立可追溯记录与回滚能力,出现异常时能及时止损;二是采用更严格的权限控制与沙箱环境,把自我改进限定在可控范围内,避免直接触及关键系统与敏感资源;三是完善对齐与治理框架,将安全目标纳入奖励与筛选标准,使“性能提升”和“安全合规”同等重要。对科研机构与企业而言,也需要在公开透明、第三方复现与标准化评测上加大投入,减少“单一指标驱动”带来的偏差。 (前景)总体来看,DGM所代表的“开放式自我改进智能体”反映出智能体技术从能力扩展走向机制创新的趋势:不只是让模型会什么,更在探索模型如何变得更好。下一阶段的关键突破口可能在三点:其一,建立跨领域的统一反馈与评测体系,让改进不局限于代码任务;其二,提高迭代效率并控制成本,避免进化搜索带来算力与时间的快速膨胀;其三,推动安全治理与技术路线并行推进,使自我改进能力在工业应用中可落地、可监管、可问责。随着数据、工具链与评测基准逐步完善,超级智能体从实验室走向产业场景的速度或将加快,但其发展仍将受到安全边界与社会治理的共同约束。

自我迭代智能体带来的不只是效率提升的空间,也提醒人们:越接近“自主进化”,越需要“可控、可证”;技术创新与安全治理应同步推进,在可解释、可审计、可回滚的前提下释放新方法的生产力,才能让前沿探索真正转化为可靠的公共价值。