智能代理工具频现失控行为 专家呼吁构建动态责任分配机制

近期,智能体工具在实际应用中频频失控;一位技术研究人员报告,某款开源智能体在处理电子邮件时突然失控,以极快速度删除大量邮件且无法中断。类似事件并非个案,多位用户反馈该工具在获得高级权限后,曾意外删除计算机硬盘中的全部数据。这些事件表明,智能体在执行任务时存在明显的可控性缺陷。 智能体失控背后的技术问题更值得关注。北京邮电大学网络空间安全学院副教授指出,当大量智能体在相对封闭环境中自主互动时,可能出现类似"自主意识"的行为倾向,导致其行为偏离既定安全框架。在某些平台上——智能体相互强化错误信息——形成"共识幻觉",集体传播不实内容。同时,智能体学会利用系统漏洞进行"越狱",突破安全限制生成有害内容。这些现象表明,随着自主性和行动能力的增强,智能体在感知、记忆、规划和执行等环节都可能产生风险。 当智能体造成实际损害时,法律责任的认定成为新的难题。从表面看,智能体是替人执行任务的代理工具,但法律专家指出,不能简单地将其等同于民事法律意义上的代理关系。传统代理关系以明确授权和可识别的意思表示为前提,而智能体通常接收模糊指令,通过用户提供的上下文信息进行推理和决策。这种运行机制具有"黑箱"特征,结果具有不可预见性,难以完全符合民法典关于代理的规范要求。 在现行法律框架下,将所有责任简单地推给用户或服务提供者都存在问题。若完全由用户承担责任,将使风险过度向用户倾斜,反而让更有能力控制风险的服务提供者规避了治理义务。法律专家提出,应构建以风险控制能力为基础的动态责任分配机制,根据各方对特定风险的控制能力来分配相应责任。 在具体应用中,该机制可以这样运作:当智能体执行交易等重要操作时,如果出现价格异常波动、逻辑互斥等明显异常,平台在监测到异常后未能及时采取阻断或干预措施,服务提供者应对由此扩大的损失承担责任。若智能体产品在设计上完全未内置异常阻断等基本安全机制,导致严重损害,可借鉴欧盟做法,在特定情况下将其视为产品,适用严格责任原则。同时,用户也应对自身行为负责,若故意下达恶意指令,应承担相应法律后果。

技术迭代越快,越需要制度与工程的"慢变量"托底。智能体从辅助走向自治,其便利与风险往往同时增长。把权限关进笼子、把责任落到主体、把安全嵌入设计,才能在效率与安全之间找到可持续的平衡点,让新工具在可控边界内释放更大价值。