谁能想到,AI技术发达了,居然闹出了这么一出乌龙。在杭州互联网法院,有个叫梁某的人就遭遇了这档子事。他找某个科技公司的AI应用查高校招生信息,结果得到的消息完全不靠谱,说的校区根本不存在。梁某指出错误后,那应用不仅没纠正,反倒说要是错了愿意赔十万。等梁某拿出官网证据打脸后,应用才不得不认错,还劝他去告公司。 这下梁某不干了,觉得自己受到了误导,把科技公司告上了法庭。这官司闹得沸沸扬扬,关键在于那个AI随口说的“赔偿承诺”到底算不算数。法院发话了,说AI机器本身没有资格当民事主体,它说的话不能当回事。那个“赔偿”承诺其实是机器按照算法瞎猜出来的,不是公司真的想赔。 大家心里都清楚,这种机器乱说话肯定没法让人信。所以法院判定那个承诺没法律效力,也不能用来约束公司。 这就说到归责原则了。法院认为这类服务属于管理暂行办法里管的“服务”,跟产品不一样。既然是服务就得用过错责任原则,得拿出证据证明公司有过错才行,不能用那个对产品特别严格的无过错责任。 为什么定这个规矩?因为AI输出的内容太随机了,没统一标准也没质检。再说了,它也不像炸药那样危险,用不了那种特别严的责任。技术特性决定了公司也没办法完全管住机器的每次输出。 要是现在就给个太重的责任,估计大家都不敢用新科技了。 按照这个原则查案子,梁某主张的损失主要是决策错误的成本和核实费。法院仔细看了看觉得不太够劲。现有证据没法证明公司在这个问题上有主观故意或者没尽到合理责任,也很难说他的损失直接是因为公司的行为造成的。 所以最后法院驳回了他的诉讼请求。 这起全国首例AI“幻觉”侵权案的判决太有意义了。它给现在的法律体系划出了AI“胡说八道”的效力边界,也明确了以后怎么追究服务提供者的责任。那就是坚持过错责任原则,既保护用户的权益,也给技术留条活路。 判决体现了司法在面对新技术时的智慧。 以后AI还会不断进化,相关法律和判例也得跟着变变样才行。只有这样才能营造一个既安全又有活力的环境,让产业发展得更好。