听说了没?最近杭州互联网法院搞了个大新闻,判了个案子,让AI领域的人都得好好琢磨琢磨。这个案子还是咱们国内头一回,直接就把生成式AI的侵权问题给实实在在地拍板了,就这么判了。这事儿其实发生在2025年6月,用户梁某在刷某款AI应用查学校的时候,结果发现给出的报考信息是瞎扯的。而且后面AI还跟他说,“如果信息错了就赔你十万元”。梁某一看这不行啊,觉得自己被误导了,就把运营者给告上了法庭。运营者那边倒好,狡辩说聊天内容全是模型自动生成的,跟他们公司没关系,而且他们也早就把注意事项都贴出来了。 法院一审最后是驳回了梁某的请求,双方也没上诉,现在判决都生效了。不过这次的判决书可没光说判了啥结果,重点是把生成式AI服务提供者到底该负啥责任给讲透了。首先法院给了个明确说法:AI本身不是个民事主体,它就像个工具一样没有独立的法律身份。所以它说的那些话、做的那些“承诺”,都不算运营者的真实意思。这就把技术输出和人的意思给完全分开了。 然后关于责任认定方面,法院说这事儿不能简单套用产品责任法那一套,毕竟这不是卖实物而是卖服务。所以得按过错责任的路子走。也就是说不能光看AI说错了没就怪平台,得看平台在提供服务的时候是不是有过错。 具体来说就是要划清注意义务的界限。平台对于那些危害国家安全、宣扬恐怖主义这种违法的东西得负全责;至于那种普通的事实错误或者不准确信息,法律也没逼平台保证百分百正确。平台只要采取合理措施优化模型、完善指令理解或者加强RAG技术手段就行。另外最重要的一点是风险提示必须做得显眼易懂。 这个判决真挺智慧的,既没因为是新科技就免责,也没给刚起步的技术提不切实际的要求。通过区分信息类型、界定义务层次,算是在保护用户权益和促进技术创新之间找到了一个平衡点。 以后大家用AI可得留个心眼了!杭州互联网法院的这次判决不仅是在帮大家伙儿解决问题,更是给这个新兴领域竖了个“路标”。特别是提醒了所有做服务的人:合规治理和风险管控必须得跟技术研发一样重视。反过来也提醒我们这些用户:理性看待AI的能力边界才是正事!