联合国推进全球治理新举措 人工智能科学小组组建进入实质阶段

问题——人工智能加速迭代带来治理缺口与认知分化;近年来,人工智能技术政务、医疗、教育、金融等领域快速落地,也带来数据安全、算法偏见、深度伪造、就业结构调整等新挑战。对许多发展中国家和脆弱经济体而言,算力、数据、人才与制度供给不足叠加,使其在技术获取与风险应对上处于相对不利的位置。技术扩散速度与治理体系更新速度之间的落差,正在拉大国家之间、社会群体之间的数字鸿沟与知识鸿沟。 原因——技术竞争与地缘政治叠加,单边应对难以覆盖全链条风险。古特雷斯指出——人工智能发展过快——任何国家都难以单独掌握全貌。当前全球技术竞争加剧,对应的标准、规则与产业链布局存在走向“碎片化”的风险:一上,各国监管口径、数据跨境流动规则、模型安全评测方法差异明显;另一方面,人工智能的外溢效应跨越国界,从网络空间到公共舆论场都可能产生影响。鉴于此,仅靠单一国家或行业自律,难以形成可比较、可验证、可执行的公共政策基础。 影响——科学评估与事实澄清成为建立国际共识的关键抓手。根据联大决议拟设立的“人工智能独立国际科学小组”将由40名专家组成,覆盖机器学习、数据治理、公共卫生、人权等领域。古特雷斯在记者会上介绍,已向联大提交该小组人选备选名单。其定位强调“全球性、完全独立”,目标是以跨学科证据评估人工智能在不同经济体与社会中的实际影响,帮助国际社会区分事实与虚假信息、科学结论与错误观点。对全球治理而言,这意味着在政策分歧之外引入更稳定的科学支撑,让风险讨论从“立场对抗”更多转向“证据对话”,并为监管工具、技术标准、风险分级与责任边界提供参考。 对策——与全球对话机制形成联动,推动可操作的安全护栏与合作框架。联大决议同步提出“人工智能治理全球对话”机制,意在把科学评估、政策磋商与能力建设衔接起来。结合古特雷斯的表态,小组未来工作可聚焦几条主线:一是建立可复用的风险评估框架与指标体系,覆盖模型安全、数据治理、隐私保护、内容真实性、公共服务应用等关键环节;二是推动更具包容性的能力建设,帮助发展中国家提升政策制定、人才培养与基础设施水平,避免“技术鸿沟”演变为“发展鸿沟”;三是以人权与公共利益为底线,推动透明度、问责机制与安全测试的最低共同标准;四是加强跨境协同,围绕深度伪造治理、关键基础设施安全、公共卫生与灾害响应等领域形成可落地的合作项目。 前景——以科学为锚推动合作仍面临挑战,但也存在凝聚共识的窗口。人工智能治理牵涉产业利益、国家安全与社会伦理,短期内难免出现规则分歧与路径差异。独立科学小组若能保持程序透明、证据公开与代表性多元,其报告与评估结论有望成为各方“可引用、可对照、可验证”的公共产品,降低国际谈判成本,提高政策兼容性。同时,全球对话机制若能把评估结果转化为能力建设项目、标准倡议与试点合作,将为“安全与发展并重”的治理路线增强执行力。随着人工智能在公共服务和关键行业的渗透加深,国际社会对共同护栏的需求将持续上升,也为多边框架发挥作用打开更大空间。

人工智能正在重塑生产方式与社会结构,其影响跨越国界、行业与代际;以独立、可信的科学评估凝聚共识,以开放、包容的对话机制促成合作,是国际社会在不确定性中争取确定性的现实选择。推动技术向善、以共同利益引导创新,既需要规则与护栏,也需要更多基于科学与合作的务实行动。