昨天我在网上看到一条新闻,说2025年6月,杭州的互联网法院把梁某跟某公司的官司给结了。梁某当时用了个生成式人工智能查高校报考信息,结果里面有错误。他指出后,那个程序还回复说如果内容有误赔十万,还让他去法院告。不过后来程序承认了错误,但梁某觉得这行为增加了他的核实和维权成本,就起诉赔9999元。杭州互联网法院判了这个案子。法官说根据现在的法律规定,人工智能不具备民事主体资格,它们的话只是技术运算结果,不算平台的意思表示。所以就算程序里出现了赔偿承诺也不算法律上的承诺。还有一个重点是看平台有没有尽到责任。证据显示,被告那边已经备案和安全评估好了,还在界面和协议里醒目地提示了可能出错。法院觉得平台已经做了合理的技术防错措施,履行了义务。 这个判决主要是给行业一个参考。一方面让技术发展要有包容审慎的环境,不能要求“零错误”,不然就阻碍创新了。另一方面平台必须守住底线,特别是在高敏感领域比如生命安全、心理健康这些地方,得有更高标准的注意义务。这体现了鼓励技术应用和守底线的平衡。 这个案件的裁判价值不止是解决了具体争议,还给以后的类似案件提供了思路。随着生成式人工智能越来越多地用在民生、经济这些地方,法律风险肯定会变大。司法机关通过个案裁判慢慢构建规则体系能帮上忙。 梁某最后没拿到那9999元赔偿,但这个判决的意义还是挺大的。它第一次系统地说了平台的责任边界在哪儿,既给了技术创新必要的容错空间,也为权益保障划了清底线。技术前进得快又深地渗透进我们生活时,就得发展和规范并重、创新和安全一起抓才能走得稳。