问题——智能体快速普及带来治理“空档”,安全与责任界定更趋紧迫。 博鳌亚洲论坛“AI+:数智赋能产业升级”分会现场,张亚勤围绕技术演进与风险治理表示:随着消费级应用加速落地,智能体正从概念走向规模化使用,人工智能也从“工具”快速转为嵌入式能力,并带来新的管理方式。同时,技术迭代速度快于制度更新,责任主体不清、内容来源不明、风险传导链条复杂等问题逐渐显现。尤其在开源生态与跨平台部署背景下,部分智能体产品一旦发生侵权、误导、数据泄露或安全事故,责任归属与追责路径容易引发争议。 原因——技术路径与产业形态变化,使“谁来负责、如何负责”更难回答。 一是技术范式变化。人工智能正呈现三上趋势:从生成式能力迈向具备任务规划与行动执行能力的智能体;从信息处理延伸到物理世界交互乃至生命科学领域;从单一技术应用走向“AI+”全行业融合。这意味着系统能力更强、链条更长、参与主体更多,传统“软件—平台—用户”的简单关系被打破。 二是内容生态加速“合成化”。随着网络内容中自动生成比例上升,信息源的真实性、原创性与可验证性面临挑战。一旦合成内容被污染或被恶意操纵,并更用于数据训练与模型迭代,风险可能沿着“内容—数据—模型—应用”链条放大,影响产业生态与公共信息环境。 三是制度与标准存在滞后。张亚勤指出,技术更新迅速,而政策制定、法律法规及配套标准往往需要时间形成共识并落地。特别是跨境服务、开源社区协作、第三方插件与工具链叠加,使得单一主体难以覆盖全流程风险控制。 影响——从数字领域外溢到现实场景,风险呈现“隐蔽化、链条化、外溢化”。 在数字空间,虚假信息、深度合成误导、内容侵权、数据滥用等问题更易扩散,且特点是低成本、高传播;在产业场景,智能体一旦被嵌入客服、营销、办公、研发、金融风控等关键环节,错误决策或被操控可能带来经营损失与合规风险;面向更广阔的物理与生物领域,若与机器人、自动化设备、医疗与生命科学应用结合,风险将不再局限于“信息层面”,可能引发现实世界的安全与伦理挑战。多重风险叠加之下,社会对“可解释、可控、可追责”的治理需求明显上升。 对策——以“标识+责任主体+可追溯”为抓手,在现行法治框架下加快落地。 张亚勤提出多项建议,重点是把智能体纳入可监管、可追责的制度轨道。 其一,强化生成内容标识与来源说明,提升公众识别能力与平台治理效率。对数字人、合成内容等进行清晰标注,有助于减少误导与滥用,也便于纠纷发生时固定证据、认定责任。涉及的举措已在国内制度层面推进,为行业发展提供更明确的预期。 其二,所有智能体应当对应明确责任主体,实现可追溯、可确权。无论是实体机器人还是数字智能体,无论运行在企业系统还是开源环境,都应明确归属方与责任边界,形成从研发、部署、运营到更新的闭环管理。对于开源智能体等新形态应用,还需进一步明确责任链条的界定方式,推动行业规则、平台机制与合规要求协同。 其三,审慎对待智能体自我迭代、自我复制等高风险能力配置。在治理框架尚不完善、风险评估与安全验证机制仍需健全的阶段,对可能带来失控风险的能力应设置更严格的边界与审查要求。 其四,强调法律适用的连续性与可操作性。张亚勤认为,现有法律体系中不少规则可以延伸适用到新技术新业态,关键在于结合智能体特点完善配套制度、执法解释与行业标准,避免出现“技术真空”和“监管盲区”。同时,应推动科学界、工程界、产业界与政策层面协同,形成可执行的治理方案。 前景——“AI+”进入深水区,规范与创新需要同步推进。 业内普遍认为,智能体与“AI+”融合将重塑生产方式与组织管理:从企业内部流程自动化到产业链协同,从公共服务智能化到消费端个性化体验,应用空间广阔。未来竞争焦点不仅在模型能力,更在系统工程、安全治理、数据与内容生态质量,以及制度供给的确定性。随着规则体系、标识机制、责任划分与国际合作逐步完善,智能体有望在可控边界内更大规模释放效率红利,推动数字经济与实体经济深度融合。
智能体的价值在于提升效率、拓展能力边界,但其广泛部署也意味着风险不再只是个别产品问题,而可能演变为链条式、系统性挑战。以标识提升透明度、以责任主体明确边界、以可追溯机制强化治理效能,在现有法治框架内推进规则适配与协同共治,才能让“AI+”在规范轨道上释放更大动能,为产业升级与社会治理提供更可靠的支撑。