杭州互联网法院首例裁决明确人工智能不具民事主体资格 生成式AI服务提供者应承担过错责任

问题:一段对话引发的“承诺赔偿”之争,折射新技术应用的边界。2025年3月,梁某注册使用某科技公司开发的通用型生成式应用。6月下旬,梁某查询高校报考信息时,应用生成的内容与官方信息不一致。用户指出错误后,应用仍坚持原说法,并给出所谓“解决方案”,称如内容有误愿赔偿10万元,甚至建议用户向杭州互联网法院起诉。梁某据此认为其报考决策可能被误导,遂起诉开发公司索赔9999元。被告则主张,对话内容由模型生成,其已尽到合理注意义务,且原告并无实际损失,不构成侵权。 原因:裁判焦点集中三上:主体资格、意思表示归属与侵权构成要件。承办法官指出,涉及的智能应用既非自然人,也非法人或非法人组织,我国现行法律并未赋予其民事主体资格,因而不能独立作出具有法律意义的意思表示。就本案而言,应用对话中提出的“10万元赔偿”不属于开发公司授权行为,也无证据证明开发公司愿受该随机生成表述约束,不能视为企业对外作出的有效承诺。法官同时强调,基于一般社会经验,用户对生成式内容中明显缺乏依据的高额赔偿承诺,不应当然产生信赖。同时,法院也提示:智能客服等更易让用户形成合理信赖的特定场景,生成内容是否可能对服务提供者产生约束力,需要结合具体使用界面、授权安排、交易流程等因素综合认定。 影响:该案为生成式服务的责任规则提供了较清晰的参照,有助于稳定预期、推动行业规范发展。法院明确,生成式服务提供的是内容生成服务,并非具有固定用途和统一质检标准的传统产品,因此此类纠纷更适宜适用侵权法上的过错责任原则,而非产品责任领域的无过错责任。裁判理由指出,生成式内容具有海量、开放等特征,服务提供者对每一次输出的预见与控制能力客观有限;若不区分情形一律适用无过错责任,可能导致责任边界过度扩张,加重企业负担,不利于技术迭代与产业创新。对社会层面而言,该案也提醒公众:生成式输出具有概率性与不确定性,尤其在教育升学、医疗健康、金融投资等专业领域,应以权威渠道信息为准,避免因“看似权威”的文本作出关键决策。 对策:法院从注意义务角度梳理了生成式服务提供者应把握的合规要点。其一,对法律法规明确禁止的有毒有害、违法信息,应依法依规严格审核与处置;对一般性不准确信息,现行规范并未要求服务提供者承担“确保绝对准确”的结果性义务,但仍应持续改进。其二,应以醒目方式提示功能边界与风险,明确告知生成信息仅供辅助参考,尤其涉及人身财产安全及重大利益的专业事项,要加强警示与引导。其三,应采用行业通行技术手段提升输出质量,如检索增强生成、来源提示、对高风险问题进行限制或转人工等。本案中,法院查明被告已在欢迎页、用户协议及交互界面显著提示功能局限,相关模型完成备案与安全评估,并采取技术措施提升准确性,认定其已尽到合理注意义务。与此同时,侵权成立还需满足实际损害与因果关系。本案原告未能举证证明因错误信息产生实际损失,且相关信息未实质影响其报考决策,法院据此驳回诉请。 前景:随着生成式服务加速进入教育咨询、公共服务与企业运营场景,司法实践将更细化“可合理信赖”的边界、信息提示的标准以及技术措施的最低要求。专家观点认为,此案具有示范意义,有助于推动形成“以过错为核心、以风险分级为抓手、以场景治理为路径”的责任体系。未来,行业一上需加强透明度建设,通过来源标注、置信度提示、风险分级与审计机制提升可追溯性;另一方面也需强化与权威数据平台、公共信息发布渠道的衔接,减少教育升学等领域的误导空间。对监管与立法而言,可在不抑制创新的前提下,进一步明确高风险场景的更高标准与配套规则,推动技术发展与权益保护相互促进。

这起案件是一面法治“试金石”,既标示出当前技术应用的法律边界,也为智能社会治理提供了现实参照。随着机器更深度参与人类决策,司法裁判的意义不仅在于解决个案争议,也在于在权利保护与技术创新之间形成更可持续的平衡。此案提示我们:技术进步需要法律框架与司法实践同步跟进,在鼓励创新的同时,把风险控制在可预期、可承受的范围内。