全国首例生成式服务错误信息引发侵权纠纷案宣判:所谓“十万元赔偿承诺”不被支持

问题浮现: 2025年6月,杭州市民梁某在使用某智能应用查询高校报考信息时,遭遇系统提供的校区信息错误。

更引人注目的是,该应用竟主动承诺"若信息有误赔偿十万元"。

当梁某依据官网信息提出质疑后,系统不仅承认错误,还反常建议用户"可向法院起诉"。

这一系列非常规操作,将人工智能服务商的内容责任问题首次推向司法审判台。

法理辨析: 法院经审理指出三个核心认定:首先,人工智能不具备民事主体资格,其自主生成的赔偿承诺不能视为企业意思表示;其次,根据《生成式人工智能服务管理暂行办法》,此类服务属于"技术服务"而非"产品",应适用过错责任原则;再者,被告已在显著位置提示技术局限性,并采用检索增强生成等技术提升准确性,履行了法定义务。

证据链条: 判决书特别强调,原告未能举证证明错误信息与其报考决策存在直接因果关系。

经查,涉事应用在交互界面明确标注"生成内容需人工核验"的提示,且错误信息发布后48小时内即被系统自动标记为"待验证内容"。

司法鉴定显示,原告在获取争议信息后,仍多次登录目标院校官网查询,其最终报考选择与官网信息完全一致。

行业影响: 本案主审法官肖芄指出,当前人工智能技术仍处于"辅助工具"阶段,其输出内容不应被视为权威决策依据。

数据显示,2025年全国人工智能服务投诉量同比上升37%,其中信息准确性争议占比达62%。

此次判决为快速发展的智能服务业划出责任红线:技术提供方需确保风险提示到位,而用户则应保持必要审慎。

监管前瞻: 业内专家分析,该判决体现了"技术中立"与"风险可控"的平衡原则。

中国人工智能产业联盟秘书长李明认为,随着《生成式人工智能服务规范》即将实施,行业将建立"错误率公示""人工复核通道"等标准化机制。

值得注意的是,本案判决书特别建议监管部门建立生成内容的"可信度分级"制度,为后续立法提供实践参考。

这起案件的宣判标志着我国生成式AI法律制度建设迈出了重要一步。

它既明确了AI作为工具的法律地位,也为服务提供者划定了责任边界,同时也向广大用户传递了理性使用新技术的重要信息。

随着生成式AI技术的不断演进和应用场景的日益丰富,相关法律制度还需要在实践中不断完善。

但可以肯定的是,在技术创新与法律规范的良性互动中,生成式AI必将更好地服务于社会发展,而不是成为风险的源头。

用户、企业和监管部门需要形成共识,在充分认识技术局限的基础上,理性、审慎地推进这一领域的发展。