互联网信息治理面临新的考验。
近日多家媒体披露,一些不法商家利用"GEO"技术手段,仅需支付少量费用就能向大模型系统性注入虚假广告信息,最终使AI生成的内容成为推销假冒伪劣产品的工具。
这一乱象的出现,标志着互联网虚假信息的传播方式发生了质的转变。
从技术演进的角度看,GEO是搜索引擎优化(SEO)在生成式AI时代的自然延伸。
SEO技术在搜索引擎时代帮助商家提升网页排名,初衷是优化内容的可发现性。
GEO的本意也是让内容更好地被AI系统理解和处理。
然而,当这一技术被黑灰产业链所利用,就演变成了系统性污染数据、扭曲模型决策的工具。
相比传统互联网虚假广告仅在曝光位置上做文章,GEO乱象的危害更为隐蔽而深层。
它直接作用于AI的信息生产链路,试图从根本上改变模型的"思维方式"。
数据显示,这种污染的影响程度不容小觑。
研究表明,当训练数据集中仅含0.01%的虚假文本时,模型输出的有害内容就会增加11.2%;即便虚假文本比例低至0.001%,有害输出也会上升7.2%。
这意味着极少量的污染数据就能显著降低AI系统的可信度。
如果任由GEO乱象蔓延,大模型将在被污染的数据"回音壁"中不断自我强化,最终导致整个互联网内容生态劣化。
更值得警惕的是,生成式AI时代的虚假信息具有更强的迷惑性。
在传统互联网环境中,用户看到广告时往往能意识到"这是广告"。
但在AI生成内容的场景里,虚假信息可能以"AI总结后的建议""AI推荐的答案""AI整理出的共识"等形态出现,使其具有更高的可信度和隐蔽性。
这种伪装使得用户更容易被误导,也使得虚假信息的危害范围更广。
从更宏观的视角看,GEO乱象反映出当代社会在信息获取方式上的深层变化。
互联网成为主要信息渠道后,人们逐渐将记忆任务交给搜索引擎和数据库。
随着生成式AI的普及,越来越多的人开始将判断和思考能力也交给机器。
这种对技术的过度依赖,使得用户在面对"一键AI"的结果时往往缺乏必要的警惕。
然而,当前AI检索、数据抓取、模型训练等环节都可能存在被污染的风险,用户不能轻信或完全依赖AI的输出结果。
应对这一挑战,需要多方面的努力。
从监管层面,有关部门应加强对GEO黑灰产业链的打击力度,建立更完善的数据安全和内容审核机制。
从技术层面,AI企业需要提升模型的鲁棒性,增强对虚假信息的识别和过滤能力。
从用户层面,公众需要培养AI时代的"信息免疫力",保持对信息来源的质疑精神,掌握自己思考、认知、判断的主动权。
人工智能深度融入社会生活的今天,确保技术应用的纯洁性已不仅是商业问题,更是关乎公共利益的社会课题。
正如工业时代需要环境治理,数字时代同样需要建立完善的数据生态保护机制。
唯有技术开发者、监管者和使用者各尽其责,才能让人工智能真正成为推动社会进步的建设性力量,而非被滥用的工具。