杭州互联网法院给咱们呈现了AI领域的首例“幻觉”侵权案判决,这事儿能把平台责任边界给厘清了。随着AI越来越多地走进生活,它生成的内容可能存在事实错误,这就给法律责任的认定出了道新难题。最近,杭州互联网法院一审审结了这起案子,算是在司法层面第一次系统地回应了大家的关切,确立了一套很有标杆意义的裁判规则。原告梁某用AI查高校报考信息时,结果拿到的答案不准。后来再跟这个AI聊天,它居然冒出来一句承诺:“如信息有误我就赔十万元,你还能去杭州互联网法院起诉我。”梁某觉得这是误导他,就把运营方告了。法院审理后认为,核心争议有两点:一是AI说的话到底算不算法律上的承诺;二是技术本身难免出错,平台该负多少注意义务。 对于第一个问题,判决特别明确指出,按现行法律,AI本身不是人,没有民事主体资格,也没法自己担责。它说的所有话都是算法根据训练数据和当时的对话造出来的,根本不是平台自己想的意思。所以,不能把AI的大话直接当成平台的法律承诺。这就守住了“谁管谁负责”的原则,告诉大家法律责任得是人或者公司来背,工具可不行。在责任认定上,法院用的是过错责任原则。案子里的服务属于《民法典》管的范围,不是那种严格的产品责任。不能因为信息有假就简单地说是侵权,关键得看平台是不是按它的技术特点和服务性质尽到了该有的责任。 法院还破天荒地把平台的注意义务分了三层:第一层是对违法有害的信息,平台必须严防死守;第二层是对普通的错误或不准确的信息,法律没要求“零错误”,只要平台采取了跟技术发展水平相匹配的措施就行;第三层是风险提示义务,平台必须用显眼的方式告诉用户AI可能出错。这就给行业画了条合规线。 本案里法院觉得被告已经用了相应的技术手段在现有水平上尽到了责任。原告没法证明被告没尽到这些义务,也没拿出足够的证据证明自己受了损。所以最终原告的请求没得到支持。判决生效后双方都没上诉。专家说这个判决找对了鼓励创新和保护用户权益的平衡点。它没给处在发展中的AI技术提不切实际的“完美”要求,避免了把创新给管死;又通过明确底线义务和过错标准,让行业加强自律、提升质量、承担责任。杭州互联网法院这次判决就是司法面对前沿科技问题的积极回应。它通过这个案子给AI服务厘定了责任框架:核心规则就是“以过错为基础、注意义务分层、风险提示必备”。这不仅是同类纠纷的参考样本,也给AI产业的健康发展注入了稳定的法治预期。科技向前冲的时候,法治得在后面好好撑腰。只有坚持科技向善、权责分明,咱们才能走得稳当长远,真正让经济社会受益。