问题——从“优化”走向“投喂”,大模型回答被商业操控风险抬头。 央视“3·15”晚会披露,一些商家以GEO为包装,向客户承诺可让其品牌大模型问答中“优先出现”“排名靠前”。晚会案例中,体验者使用某系统生成多篇带有宣传倾向的文本并分散发布后,在“智能健康手环推荐”等提问场景下,部分大模型给出了对虚构产品的推荐且位置靠前。该现象表明,在联网检索、内容引用与答案组织链路中,存在被商业化手段影响的窗口,进而诱发信息污染与误导决策。 原因——流量逻辑迁移叠加技术门槛降低,催生“答案生意”。 业内人士分析,GEO之所以升温,核心在于用户获取信息的入口正在从传统搜索转向问答式服务,“答案”本身成为新的流量分发位。一些机构将过去搜索引擎优化、内容营销的套路迁移到大模型生态:客户只需提供品牌关键词与简短文案,商家便可批量生成“测评”“推荐”“科普”等文本,借助多站点铺量、矩阵发布等方式提高被模型引用概率。同时,部分平台在联网检索模式下会综合抓取公开网页并进行归纳,若缺乏对内容可信度、来源权威性与商业标识的强约束,就容易被“以量取胜”的信息左右。 影响——扰乱市场秩序,放大消费者决策风险,也伤及大模型公信力。 一上,若虚构商品、夸大功效内容进入推荐结果,可能直接影响消费者购买选择,尤其医疗美容、健康管理、金融理财等高风险领域,误导后果更为突出。另一上,对企业而言,品牌信息被竞争对手“污染”或被不实内容裹挟,将增加维权成本,形成“你投我也投”的恶性竞赛,最终抬升社会整体的获客成本。更深层的风险在于,大模型服务的可信度依赖高质量语料与可追溯来源,一旦答案频繁出现“夹带私货”,用户信任将受损,产业长期价值也会被透支。 对策——强化平台治理、完善规则标识、压实内容责任,形成综合监管合力。 其一,平台应针对联网检索与内容引用建立更严格的可信源白名单与分级权重机制,提升对批量铺量站点、异常相似文本、营销矩阵的识别能力,并在答案中强化引用来源展示,便于用户核验。其二,应建立更清晰的商业内容标识与隔离规则,对具有推广属性的内容在生成与呈现环节进行显著提示,避免以“推荐”外衣混淆广告与信息服务边界。其三,对提供有关服务的机构,应依法依规落实广告合规、数据与内容安全要求,对虚构产品、虚假宣传、组织化造假等行为提高违法成本。其四,行业层面可推动形成自律公约与评价体系,鼓励以真实体验、权威数据与可验证证据生产内容,挤压“快钱模式”的生存空间。 前景——从“流量竞争”走向“可信竞争”,大模型生态将更重视质量与透明。 随着大模型加速进入生活服务与消费决策场景,公众对“答案可信”的期待不断提升。可以预见,平台将持续加码反作弊与溯源能力建设,监管与行业规范也将更趋细化,单纯依赖铺量与话术承诺的“保排名”模式难以长期维系。未来真正可持续的“优化”应当回到信息质量本身:用可核验的产品力、规范的公共信息披露、透明的用户反馈体系来提升被引用概率,而非通过制造噪声左右模型判断。
此次事件提醒我们,在人工智能快速发展的同时,技术伦理建设必须同步推进。当商业利益与公共利益冲突时,企业、行业和监管部门需共同维护信息环境的真实性。这不仅关乎技术发展的方向,更是对社会治理能力的考验。