在生成式人工智能迅速发展的背景下,杭州互联网法院最近给出了一个重要的判决。这个案件被称作全国首例生成式AI信息纠纷案,它涉及到AI不具备民事主体资格的法律认定。杭州互联网法院的判决不仅解决了这起特定纠纷,还为类似的未来案件提供了指导。这个案件源于2025年6月,用户梁某使用某科技公司开发的通用型生成式人工智能应用时询问了某高校的报考信息,AI给出的信息不准确。用户纠正后,AI不仅坚持自己的说法是对的,还给了用户十万元的赔偿承诺,建议他把这个公司告到杭州互联网法院。梁某就根据这个把这个科技公司告到了法庭上,要求赔偿9999元。被告科技公司辩称这个对话内容是由AI模型自主生成的,他们已经履行了注意义务,并没有造成实际损失。 案件核心是在生成式AI时代确定谁来负责AI的承诺和服务提供者应该承担什么责任。法官肖芄指出,人工智能既不是自然人,也不是法人或非法人组织,没有民事主体资格。这意味着AI模型自主生成的“赔偿承诺”不能等同于开发公司的真实意思表示。法院认为用户不能轻信AI在通用场景下的随机表述。 此外,杭州互联网法院明确了生成式AI侵权纠纷适用过错责任原则。他们指出生成式AI提供的是内容生成服务,而不是具有明确标准和用途的产品。因此,不能适用产品责任中的无过错责任原则。这样的界定避免了不切实际地加重企业负担和抑制技术创新。在这个案件中,被告科技公司已经在应用启动页、用户协议等多处显著位置设置了风险提示,并且采用了检索增强生成(RAG)等技术提升准确性。 最后还需要满足“实际损害”和“因果关系”两大要件才能认定侵权责任成立。法院审理认定梁某因为这个错误信息并未产生法律认可的实际损失,且该信息并未实质影响他最终的报考决策。因此判决驳回梁某对被告科技公司所有的诉讼请求。 这个判决冷静地界定了人工智能在法律上的工具属性,划定了服务提供者在现有技术条件下的责任红线平衡了技术创新激励与用户权益保护之间关系。这个案例为处理未来可能激增的类似纠纷提供了可资借鉴的裁判思路。随着生成式AI更深地融入社会生活法律与技术之间必定会有更多交流和对话。