科学传播研究揭示内容标注悖论 人工智能披露标签可能适得其反

随着人工智能技术在内容生产领域的广泛应用,全球多国监管机构要求对人工智能生成内容进行明确标识,以保障公众知情权。

然而,中国社会科学院大学新闻传播学院研究团队近日在《科学传播期刊》发表的研究成果显示,这一看似合理的透明度措施可能引发新的认知风险。

研究团队通过设计四类社交媒体实验样本(含标识/未标识的真实与虚假信息),对433名受试者进行测评。

结果显示:标注“人工智能生成”的真实信息平均可信度下降12%,而同标注的虚假信息可信度却上升9%。

这种被命名为“真伪交叉效应”的现象,暴露出当前标识制度的局限性。

深入分析表明,该现象源于双重认知机制:一方面,公众对人工智能技术存在固有偏见,将“机器生成”与“低可信度”简单关联;另一方面,虚假信息制作者可能利用标识作为“技术背书”,使受众误判其专业性。

研究还发现,对人工智能持负面态度的群体,其对真实信息的信任衰减更为显著,但虚假信息的可信度提升仍部分存在。

针对这一困境,研究团队提出分级标注方案:对医疗健康等高危领域强化风险提示,增加“未经独立核实”声明;对普通科普内容则采用轻度标识。

此外,建议建立动态评估机制,根据内容类型调整标识强度。

业内专家指出,该研究为正在制定相关法规的国家提供了重要参考。

欧盟数字服务法案特别顾问玛丽亚·里贝罗认为:“监管设计需平衡透明度与认知安全,单纯的技术披露已不足以应对复杂的信息生态。

” 信息透明是公共治理的重要原则,但透明并不天然等于有效。

面对人工智能参与内容生产的新现实,治理的关键不在于给信息简单贴上标签,而在于让标签真正服务于核验、责任与信任的重建。

用更科学的评估、更精细的分级、更明确的风险提示,才能让技术进步更好增进公共福祉,而不是成为误导的放大器。