随着智能技术深度融入社会生活,其生成内容可靠性引发的法律争议日益凸显。
杭州互联网法院审理的这起案件,源于2025年6月用户梁某在使用某智能应用查询高校信息时,系统不仅提供了错误数据,还作出"错误赔偿"的承诺。
法院经审理认为,智能系统不具备民事主体资格,其单方承诺不具法律效力,核心争议在于平台是否应承担严格责任。
判决书深入剖析了技术特性与法律适用的关系。
当前主流智能系统基于概率模型生成内容,存在固有技术局限。
若采用无过错责任原则,将迫使企业过度保守,抑制创新活力。
法院创造性提出"动态过错认定框架":平台必须确保内容合法合规,充分履行风险告知义务,并持续优化技术降低错误率;用户则需保持必要审慎,对关键信息进行核实。
经查,涉事平台已完成国家规定备案程序,在显著位置设置风险提示,符合行业普遍技术水平,故认定其无主观过错。
该判决具有多重示范意义。
从司法层面看,确立了技术中立的裁判导向,区分了"服务缺陷"与"技术局限"的界限;从产业角度看,为创新保留了合理容错空间,避免因个案导致行业陷入"责任恐慌";对公众而言,则明确了技术工具的使用边界,提示不能完全依赖算法输出。
值得注意的是,同期北京海淀法院受理的另一起智能系统编造个人犯罪记录案件,或将进一步检验裁判标准的适用性。
法律界人士指出,智能技术的法律定位可类比为"专业顾问"——既能提供高效参考,又需使用者自行判断。
我国《民法典》关于格式条款效力的规定,以及《生成式人工智能服务管理暂行办法》确立的分类分级监管思路,均为平衡技术创新与社会责任提供了制度保障。
专家建议,用户应保存原始交互记录,平台则需建立错误反馈快速响应机制。
新技术的价值在于释放效率与创造力,但真正决定其能走多远的,是风险能否被看见、被管理、被分担。
此次判决以过错为核心,既避免“一刀切”压制创新,也为平台合规与用户理性使用划出了清晰边界。
面向未来,只有在法治框架下推动平台尽责、用户审慎、行业自律与监管协同,才能让技术红利更稳、更可持续地惠及社会公共利益。