全国人大代表连续三年建言人工智能立法 呼吁构建基础性上位法体系

问题——技术能力快速增强带来治理新难题。

近年来,深度合成在文娱传播、在线服务、内容生产等领域加速应用,但也被不法分子用于“换脸”“拟声”,制造虚假代言、编造不实信息、诱导交易甚至实施诈骗。

一些公众人物和普通网民均可能成为被冒用对象,侵害个人信息权益、肖像权与名誉权,扰乱市场秩序,削弱社会公众对数字内容的基本信任。

如何在鼓励技术创新与防范滥用风险之间找到平衡,成为今年全国两会代表关注的热点之一。

原因——规则体系仍偏“点状”,难应对跨领域风险。

全国人大代表、四川省律师协会会长李世亮表示,我国已初步形成人工智能治理的制度框架:国家层面的发展规划和政策文件指引方向,网络安全、数据安全和个人信息保护等法律提供基础支撑,算法推荐、深度合成、生成式服务等管理规定以及相关国家标准对具体场景作出规范。

然而,从整体看,现有规则分散于不同部门法和监管文件,多针对具体问题作出回应,尚缺少一部具备基础性、统筹性的上位法,以统一原则、明晰权责边界、建立通用制度,从而更有效地应对技术迭代引发的系统性、跨领域法律挑战。

影响——既关乎个体权益,也关乎产业预期与治理成本。

一方面,深度合成滥用使个人信息泄露、身份冒用、网络暴力等风险上升,维权链条长、取证难度大,容易造成“损害已成、追责滞后”的局面;另一方面,规则不够统一也会抬升企业合规成本,影响市场主体稳定预期,不利于形成可持续的创新生态。

更重要的是,虚假内容扩散会侵蚀社会信任基础,冲击公共舆论空间秩序,增加平台治理和行政执法压力。

对策——以统一立法定原则、明责任、留空间。

李世亮建议稳步推进制定《人工智能法》,以基本原则和基础性制度提供统一的价值指引与制度框架,为立法、执法与司法裁判提供更清晰的依据。

他认为,立法应坚持统筹发展与安全:一方面通过制度安排强化风险规制、防范系统性风险;另一方面为研发应用预留足够空间,形成必要的保障与激励,避免“一管就死”。

在治理重点上,他提出应明确内容监管与治理方向,围绕深度伪造、欺诈、虚假信息等突出问题,进一步厘清技术提供者、内容平台等主体的注意义务、处置义务与追责路径,推动形成可操作、可落地的治理闭环。

同时,通过授权条款为行政法规、部门规章和国家标准预留空间,使规则能随技术演进动态完善、及时更新。

前景——以法治方式夯实“人工智能+”发展底座。

多位业内人士指出,面对技术快速迭代,治理更需要从“被动应对”转向“前置设计”,以统一规则提升治理效率,以明确边界稳定产业预期。

李世亮还建议,围绕“人工智能+”行动深入实施,适时探索在重点领域出台研发应用促进保障规定,配套税收激励等政策工具,为地方政策制定提供依据与指引,推动形成“基础法统领、配套规则协同、标准体系支撑”的制度格局。

作为长期从事法律服务工作的代表,他还介绍四川律师行业近年发展情况:截至2025年底,全省律师事务所和律师人数均保持增长,法律服务在重大项目落地、优化营商环境、产业链风险防控等方面作用进一步凸显,为相关立法建议提供了实践观察与案例支撑。

人工智能技术的发展不可逆转,但技术进步必须在法治轨道上运行。

加快构建系统完备、科学规范的人工智能法律制度体系,既是防范技术风险、保护公民权益的现实需要,也是促进产业健康发展、抢占科技制高点的战略选择。

唯有在发展与安全之间找到最佳平衡点,才能让人工智能真正成为造福人类的强大工具,而非威胁社会秩序的潜在风险源。

这需要立法机关、监管部门、技术企业和社会各界的共同努力,在实践中不断完善治理体系,推动人工智能技术行稳致远。