杭州法院首例判决厘清AI责任边界 生成内容承诺不具法律效力

问题: 随着生成式人工智能技术广泛应用,其生成内容可能包含错误或误导性信息,甚至引发法律纠纷。

近日,杭州互联网法院审结的一起案件引发社会关注。

案件中,人工智能模型生成“如内容有误将赔偿10万元”的承诺,但实际信息存在错误,导致用户权益受损。

原因: 法院审理认为,人工智能模型不具备民事主体资格,其自行生成的承诺不能视为服务提供者的意思表示。

根据《生成式人工智能服务管理暂行办法》,生成式人工智能服务属于服务范畴,而非产品质量法意义上的产品。

服务提供者虽无需为AI的“幻觉”内容承担产品责任,但负有严格的内容审查义务。

影响: 此案判决为人工智能服务领域划定了明确的责任边界。

一方面,明确了AI生成内容的“承诺”不具备法律效力,避免用户因过度信赖而遭受损失;另一方面,强化了服务提供者的责任,要求其采取技术手段优化模型,并对可能存在的错误内容进行显著提示。

这一判决对规范人工智能技术应用、保护用户权益具有重要意义。

对策: 法院指出,服务提供者需采取多重措施防范风险:一是对生成内容进行严格审核,发现违法或错误信息应及时停止传输并整改;二是以显著方式向用户提示AI生成内容可能不准确,避免用户产生不当信赖;三是通过技术手段优化模型,减少错误信息的产生。

前景: 随着人工智能技术深入社会生活,类似纠纷可能增多。

此次判决为未来类似案件提供了司法先例,同时也提醒行业加强自律,推动技术发展与法律规范同步完善。

未来,如何在技术创新与用户权益保护之间找到平衡,将成为行业发展的重要课题。

生成式服务的价值在于提升效率、拓展信息获取方式,但其“会说”不等于“说对”。

全国首例“幻觉”侵权案的意义,不只在于判清一案,更在于提醒各方:技术应用必须与规则建设同步,平台要守住提示与治理底线,用户要保持必要的审慎与核验。

唯有在清晰责任、透明规则与理性使用的共同支撑下,新技术才能更稳健地服务社会发展。