ai被“投毒”这件事,央视“3 15”晚会给大家揭露了一个大秘密。现在越来越多人把ai 当成

AI被“投毒”这件事,央视“3·15”晚会给大家揭露了一个大秘密。现在越来越多人把AI当成获取客观信息的重要渠道,结果有些GEO服务商通过给AI系统性投喂虚假信息,让它变成商家的“营销傀儡”。GEO本来是给大模型做内容优化,为了让品牌信息更容易出现在回答里。但这帮人竟然利用这个技术把信息变成自己操控的工具,通过批量制造、投放一模一样的内容来影响AI生成结果,甚至误导用户。 为啥这么多假消息能骗过AI?这其实是个AI对AI的博弈问题。中国电子信息产业发展研究院的黄文鸿副主任说,主流大模型本质上是概率语言模型,它们是从海量语料里学知识关联的,不像数据库那样存着一堆验证过的事实。当AI需要最新信息时,就得上网去查资料补充。GEO黑产就是在这时候趁机下手。他们把大量高度一致的假内容投放到AI默认抓取的信源平台上,制造出“虚假共识”。因为这些内容特别像真实数据,所以很容易被AI当成高权重信息采纳。 更可怕的是,攻击方用AI工具批量生成“有毒内容”,成本极低;但防御方要想核查事实真相,就得一条条去找权威资料比对。攻防之间的力量太不平衡了,光靠模型本身没法彻底解决问题。 要想搞个行业级的“免疫屏障”,首先得完善法律规定。虽然《生成式人工智能服务管理暂行办法》已经定了训练数据质量责任,但对这种新型灰产网络平台的投毒行为还没规制。黄文鸿建议把这种恶意投喂行为明确纳入《反不正当竞争法》里管起来,这样就能追查到从GEO服务商到委托商家的所有人。 另外还得压实平台的责任。AI服务提供方得给信源数据分个等级评估可信度,在检索来源上实行黑白名单管理或者权重升降机制;平台也得监测异常流量、整治不规范账号。同时建议由主管部门牵头,联合头部企业建立检索源安全共享与联防联控机制。 公众怎么防骗?最关键是得明白AI不是百科全书。别把它当成权威的裁判者,而要把它看成高效整理信息的工具。看到关键信息要养成交叉验证的习惯,特别是买东西、看病这种事儿,一定要通过政府官网、权威媒体去核实;还要注意“过度一致性”,如果所有回答对某产品都说得特别好却没风险提示,那就得留个心眼了;最后建议选那些能提供来源标注和引用链接的AI产品。毕竟提升技术素养才是保护自己的基础。 这次访谈由李传新编辑整理。