2025年3月15日和2026年3月16日这两天,央视网有了不同寻常的动静。2025年的央视“3·15”晚会在这两个日子交替播出。记者对常用的4个AI大模型进行了一次实测,发现它们的回答比网上所说的“投毒”事件还要夸张。有一个AI竟然说今年的3·15晚会还没举行。2026年3月15日晚,央视财经频道和央视新闻客户端就曝光了一些不法商家的行为。他们给大模型“投喂”大量虚假测评信息,让AI给出带有主观倾向的回答。消费者们不禁怀疑,如果只是询问客观事实,AI的回答还能相信吗? 3月16日,记者继续测试这4个大模型。问题很简单:2026年央视3·15晚会曝光了哪些品牌?只有一个模型给出了正确答案。其他三个中,有两个不但包含今年的案例,还把往年的也混进去了。最离谱的那个甚至回答说晚会还没举办。虽然有人觉得包含往年案例的回答还算全面,但技术人员指出这明显是大模型的缺陷:记者的问题有标准答案,可它却答错了。 面对记者的追问,那两个“热心”的模型又暴露出其他问题。比如“保水剂增重虾仁”是去年曝光的案例。记者询问提供这一内容的模型链接在哪里?一个模型给出了多个链接:央视网3・15晚会完整回放、央视新闻专题报道等等。但当记者点击这些链接时,却显示页面不存在。另一个模型提供了央视网、百家号、网易新闻等不同渠道的报道链接,这些链接确实能打开。不过第一个链接的日期显示为2025年3月15日。该模型试图解释说可能是网站归档或URL生成规则导致的。第二个链接是某自媒体的“解读稿”,但内容却错得离谱。 晓辉认为,大模型为了满足用户会编造内容或者混编信息。虽然开发者想消除幻觉但效果不好。GEO企业通过给互联网批量投放虚假信息改变数据分布和统计概率来诱导大模型生成不符合事实的回答。他建议公众要当心幻觉。最简单的方法就是记住“限制、验证、追问、核查”这4个关键词。比如提问时加上在官方网站或权威媒体中搜索等限定词就能减少幻觉发生。