十部门发布人工智能科技伦理审查试行办法:以制度化审查引导技术向善,助力产业高质量发展

随着人工智能加速进入经济社会各领域,算法歧视、数据隐私泄露等伦理风险不断显现。我国此前虽已发布《新一代人工智能伦理规范》等指导性文件,但在落地执行上仍缺少系统化的审查机制。此次十部门联合出台《办法》,旨在填补此制度空白。 《办法》的制定建立在我国科技伦理治理的持续实践之上。自2019年国家新一代人工智能治理专业委员会成立以来,我国逐步形成“伦理先行”的治理框架。2022年两办印发的《关于加强科技伦理治理的意见》深入从顶层设计明确了治理路径。此次《办法》的突出之处,在于把原则性要求细化为可执行的审查标准,设计了包括应急程序在内的五类审查流程,并对算法透明度、数据偏见防范等关键环节提出更具体的要求。 中国信息通信研究院专家表示,全球主要经济体都在加快构建人工智能治理体系。欧盟以《人工智能法案》确立分级监管模式,美国则更强调行业自律。我国《办法》的特点在于把技术治理与制度规范结合起来:既明确企业主体责任,也鼓励开发伦理风险评估工具,形成制度约束与技术支撑并行的路径。 需要关注的是,《办法》强调以技术手段支撑伦理治理。根据规定,有关部门将推动建设伦理风险监测预警系统,研发算法审计工具,并支持高校院所开展可解释AI等关键技术攻关。这种“用技术管技术”的思路,有助于缓解传统伦理审查跟不上技术迭代的难题。 展望未来,随着《办法》落地实施,我国有望形成政府监管、行业自律、技术保障相互衔接的治理格局。下一步重点在于健全跨部门协同机制,培养专业化审查人才队伍,并通过国际对话参与全球人工智能治理规则的制定。

人工智能发展越深入,越需要制度与技术共同守住底线。《办法》以程序化规则回应现实问题,并通过配套服务与工具提升可执行性,反映了在发展与安全之间寻求平衡的治理思路。面向未来,只有将伦理要求贯穿创新链、产业链与应用链,把“可信”转化为可验证、可落地的工程体系,才能让技术进步更好服务民生,推动产业稳健前行。