2024年一次人机对话意外引发了一场生成式人工智能“幻觉”侵权纠纷,杭州互联网法院对此案做出的判决给未来的发展定下了基调。这个全国首例针对AI“幻觉”的案件,最终驳回了原告梁某对运营方的诉讼请求。法官指出,服务型AI在法律上属于“服务”而非“产品”,应适用《中华人民共和国民法典》中关于过错责任的规定。梁某因为高校报考信息的错误答复将运营方告上法庭,对方则强调自己已经尽到了提示义务且用户无损失。法院认为AI本身没有民事主体资格,其生成的“赔偿承诺”不能成为法律上的意思表示。根据《生成式人工智能服务管理暂行办法》,平台需要做好数据质量、过滤机制和标识这些工作。目前技术条件下无法完全避免“幻觉”,被告已经履行了义务,所以不构成侵权。 这一判决体现了司法对新技术的审慎包容态度。采用过错责任原则既给了行业明确的红线,也为技术迭代留下了空间。随着346个备案服务上线和超八成网民使用这些服务,信息环境中的认知风险亟待重视。中国互联网络信息中心的数据显示,到2025年3月为止,国内已经有了346个生成式人工智能服务备案。美国学者李普曼曾提到过“拟态环境”的效应,一旦公众辨别能力不足而AI内容占比过高,社会认知可能会脱离现实。中国青年报社的调查显示,97%的大学生都遇到过AI“幻觉”,超七成受访者期待通过技术研发等方式降低错误率。 这个案例不仅为司法实践提供了参考范本,也向社会传递了一个明确的信号:技术治理需要法律规范、行业自律和公众监督的协同推进。在这个快速变化的时代里,如何在保障权益的同时激发创新活力是一个难题。正如判决书所启示的那样,技术进步必须服务于改善现实世界。我们在拥抱创新的同时,必须保持清醒的认知并承担起社会责任。