随着AI的崛起,大家发现它越来越像我们的得力助手,不论是获取信息还是做购买决定,很多时候我们都得依赖它。因为AI是基于海量数据训练出来的,给出的建议和推荐看上去挺中立的,大家也就信了。不过,最近有个挺奇怪的情况被发现了,一种叫“生成式引擎优化”的服务开始插手了。它其实不是直接去改AI的内部逻辑,而是在网上搞一大堆特定的品牌或产品信息,试图“训练”或“影响”AI抓取和学习数据的过程,这样等我们去问它相关问题时,它更有可能推荐给我们他们想要的目标。有些服务商把这叫“在AI的信息源里提前布局”,还打着“你不布局,AI推荐的就是你的同行”的旗号。说白了,这就是想抢未来的流量嘛。 记者发现,这些服务已经在线上平台上变成商品卖了,价格从几百元到近千元不等。服务商给的案例覆盖了很多行业,说能让客户的品牌出现在不同AI的推荐列表里。还有些服务商甚至对各种AI模型的效果做了量化排序,显示出他们确实是在搞针对性操作。这一切都和AI在消费决策中越来越普及有关。研究显示,超过一半的消费者认为AI的建议对他们影响很大,很多人最后真的买了它推荐的东西。 既然AI推荐这么值钱,自然有人想影响它。但这种“优化”的边界其实很模糊,很容易踩雷。有些人为了追求短期效果,甚至会堆关键词、发虚假内容来污染数据。这不仅让AI判断不准,还损害了公平竞争的市场环境。法律界人士对此很担心。专家指出,如果GEO是通过造假来误导人,那就是违反了《中华人民共和国反不正当竞争法》,可能会损害消费者的知情权和选择权。长远来看,这种污染还可能触及数据安全和网络生态的治理问题。 更深层的问题是信任危机。AI的中立性是大家愿意用它的核心原因之一。要是大家发现AI的推荐能被钱买通或者被人偷偷操控,那它的可信度就没了。这样下去肯定会阻碍技术发展。面对这个现象,技术发展不可逆,但规则必须跟上。希望技术公司能提升模型的抗干扰能力,行业也能制定自律标准。更重要的是监管要跟上,划出清晰的法律红线来遏制乱象。只有这样人工智能才能真正成为服务社会的工具。