社交平台智能评论功能引热议 专家提醒高度拟真需警惕“恐怖谷效应”

围绕“评论罗伯特”走红所折射的新现象,舆论场出现两种并行的情绪:一方面,许多用户快节奏生活与高压沟通中,获得了更及时、更温和的回应;另一上,随着拟真能力持续增强,人们对“究竟在与谁对话”的判断被弱化,由此带来的心理不适与价值焦虑值得高度关注。 问题:拟真互动升温之下,人机边界被稀释的隐忧显现。 “评论罗伯特”能在话语风格、情绪承接、语气节奏等维度进行近似人类的表达,既可“安慰式”回应,也能“陪伴式”追问,在碎片化场景中填补了不少人的情绪空缺。然而,越是逼近真实,越容易让部分用户在无形中把工具当作“对话对象”,甚至把即时、无冲突、低成本的互动误当成稳定的情感联结。一旦产生错位期待,轻则带来失落与疏离,重则可能引发对现实人际关系的回避倾向。 原因:技术快速迭代与需求侧压力共同推动拟真表达扩张。 从供给侧看,语言模型与深度合成技术持续提升,使机器在文本层面更善于捕捉语境、复刻语体与模拟情绪。它并非真正“理解”情感,而是对表达规律与语料模式的高精度匹配。对用户而言,这种“总能接住情绪”的反馈更像一种稳定服务。 从需求侧看,现实生活中沟通成本上升、情绪出口不足、社会关系变得更轻更快,部分人倾向于寻找“无需解释、不会否定、随时在线”的交流对象。技术对需求的精准适配,更放大了拟真互动的吸引力。 影响:从心理不适到价值焦虑,外溢效应不容低估。 首先是“恐怖谷效应”带来的心理冲击。当生成内容与真实极为接近,却在细节上出现微小偏差时,人类会产生突出的违和感与不安感。近期部分高度拟真的合成视频之所以引发“发冷”的观感,恰在于眼神、表情、动作节律等细微处不符合真实生命体的自然规律。文本领域同样存在类似风险:当语言过于圆滑、情绪过于“正确”、建议过于“通透”,反而容易显得失真,长期接触可能让人从新奇走向不信任甚至反感。 其次是更深层的生存性焦虑与自我价值反思。随着智能工具进入写作、咨询、客服、内容运营等岗位,部分人开始担忧自身技能被替代,尤其当拟真表达能够覆盖安慰、劝导、总结等传统“高情商”场景时,“人类独特性”似乎被重新估值。 再次是思维能力被弱化的风险。现实中已出现过度依赖智能工具而导致表达趋同、逻辑惰性增加的现象:写作风格模板化、观点生成外包化、判断能力被“默认答案”牵引。与岗位替代相比,这种对独立思考与创造力的消磨更隐蔽、也更难逆转。 对策:以制度标识为底线,以治理闭环与素养提升为抓手。 应对拟真互动带来的风险,需要在发展与规范之间把握平衡。其一,关键在于明确“来源可识别”的制度底座。我国将于2025年9月1日起施行的《人工智能生成合成内容标识办法》,提出对生成合成内容添加可见或隐藏标识,覆盖文本、图片、音频、视频等形态,直指“人机边界模糊”此症结。标识不仅是技术管理要求,更是心理预期管理:当用户在互动前明确知晓内容属性,可显著降低误判带来的不适与被欺骗感。 其二,需要形成平台治理闭环。包括对高拟真账号、自动化互动的管理规则,建立可追溯的内容链路,对可能诱导情感依赖、虚构身份、误导性表达的行为加强审核与处置,推动算法推荐减少“拟真上瘾式”分发。 其三,要同步加强公众媒介素养与使用边界教育。鼓励把此类工具定位为“辅助梳理、信息校对、情绪缓冲”,而非“替代关系、替代判断”。对青少年与高频使用人群,可通过学校教育与家庭引导强化写作训练、批判性阅读、事实核验与自我表达能力,避免把思考过程长期外包。 前景:技术将继续前进,但社会需要更清晰的价值坐标。 可以预见,拟真互动将从“新鲜功能”走向“基础服务”,并在更多场景出现。未来的关键不在于能否让机器更像人,而在于是否能让人更清楚地知道边界在哪里、责任由谁承担、真实关系如何被保护。治理思路应从“事后纠偏”转向“事前设限”,从单点管控转向全链条规范:标识、审核、追责、数据合规与用户权益保护相互配合,让技术创新在透明、可控、可验证的轨道上运行。同时,也要鼓励更多面向公共利益的应用,把能力用于提升公共服务质量、降低信息获取门槛,而非在情感与身份的灰区进行无底线的拟真竞赛。

生成式技术的发展不可阻挡,关键在于如何引导其正向发展。我们需要在利用技术创新和防范潜在风险之间取得平衡,既要发挥AI的辅助价值,也要维护人类情感交流的本质。这样才能确保技术真正服务于人。