近期,北京中闻律师事务所律师刘春在使用智能问答系统时发现,系统推荐的商务茶歇品牌存在明显倾向性。
这一现象背后,是正在兴起的生成式引擎优化产业——通过分析智能系统的内容抓取偏好,对特定信息进行语义优化、结构化标记等处理,使其更易被系统检索采纳。
技术原理显示,当前主流智能系统在生成答案时,会实时联网检索公开信息。
普林斯顿大学等机构研究表明,虽然生成过程具有概率特性,但通过理解系统的内容评估标准,确实可以提升特定信息的曝光概率。
中央财经大学专家陈端指出,这本质上是通过技术手段干预信息筛选流程。
市场调查发现,提供此类服务的机构已形成产业链。
服务商承诺通过优化内容深度、呈现形式和发布渠道,确保客户信息在智能问答中获得优先展示,部分机构甚至提供"效果保障"条款。
某从业十余年的品牌营销人士透露,权威信源发布、数据可视化呈现和问题覆盖全面性,是当前最主要的优化策略。
这种现象引发两方面担忧:一是可能破坏信息生态的公平性,使商业推广信息以"客观建议"形式呈现;二是若优化内容存在偏差,可能误导公众决策。
市场监管部门表示,新技术应用带来的伦理问题需要重视,但现行广告法规尚未明确涵盖此类新型推广形式。
中国消费者协会专家委员会成员指出,智能系统的信息推荐机制应当建立披露制度,让用户知晓答案生成逻辑及可能存在的商业因素。
清华大学人工智能研究院建议,可借鉴搜索引擎的"广告标识"制度,对优化内容进行明确标注。
部分平台已开始测试可信度评级系统,通过多维度验证提升答案可靠性。
行业分析显示,随着智能问答逐渐成为主流信息获取渠道,相关市场规模预计将在未来三年保持年均45%以上的增速。
但专家强调,技术发展必须与伦理建设同步,建议由网信部门牵头,联合学术机构、行业组织共同制定技术标准和管理规范。
AI技术的发展初衷是为人类提供更便捷、更准确的信息服务。
然而,当商业力量开始系统性地干预AI的回答过程时,这一初衷正面临考验。
GEO现象的出现,提醒我们在享受AI便利的同时,也要警惕信息生态中可能存在的隐形操纵。
这不仅需要平台方加强治理责任,更需要全社会形成共识,共同维护AI时代的信息公正与透明。
只有这样,AI才能真正成为值得信赖的决策助手,而非沦为商业利益的传声筒。