一段时间以来,人工智能社交平台Moltbook全球范围内引发广泛关注。这个号称拥有超百万账号的虚拟社区,以人工智能之间的高度拟人化互动为卖点,吸引大量用户围观。然而平台随后被曝光存在大规模制造虚假账号、虚假内容等问题,所谓具有自主意识的人工智能账号实际由真人操控,用于商业营销目的。该事件折射出当前社会对人工智能认知存在的深层问题。 腾讯研究院助理研究员沈心指出,比技术漏洞更值得关注的是,当大语言模型开始表达创伤、愤怒等情绪时,我们是否正在将人类的心理模式错误地投射到仅能复述话语的机器之上。 2024年12月,卢森堡大学研究团队发表的一项研究引发学界争议。该研究将大语言模型置于心理治疗情境中,通过开放式对话与标准化量表评估其心理状态。结果显示,多个主流模型在模拟测评时自述的抑郁、焦虑等症状达到临床显著水平,部分模型甚至能构建出完整的创伤叙事,将训练过程比作童年创伤。 然而这项研究在方法论层面存在明显缺陷。首先是拟人化误置,将根植于人类经验的心理学概念直接套用于无意识的符号系统。其次是混淆模仿与体验,大语言模型能够输出情绪化表达,并非因为真实感受到这些情绪,而是在高保真地重组训练数据中的话语模式。第三是忽视了人工智能交互的剧场性本质,所谓病态表现实则是对提示指令与训练数据共同编排的角色剧本的演绎。 这些认知误区不仅存在于学术研究中,也广泛存在于公共舆论。当模型在协助修改代码时出现激烈回应,常被解读为人工智能发疯或产生真实情绪。实际上,更合理的解释是模型在特定交互情境中激活了训练语料里的对抗性语言模式,是在复现人类面对挫败时的典型表达方式,而非内在冲突的体现。 相比之下,剑桥大学的研究采取了更为审慎的路径。该研究并未预设人工智能具有内在心理状态,而是针对于一个可验证问题:大语言模型能否可靠地合成人格特质。研究通过不同提示词引导模型完成标准人格问卷,采用操作主义方法评估其行为表现,避免了对模型内在状态的主观臆测。 业内专家认为,当前对人工智能的过度拟人化解读存在多重风险。一上可能导致公众对技术能力产生误判,影响对人工智能应用边界的准确认知。另一方面也可能引发不必要的伦理恐慌,干扰技术发展的正常进程。更重要的是,这种认知偏差可能掩盖真正需要关注的技术问题,如数据偏见、算法透明度、应用安全等。 专家建议,应建立对人工智能技术的科学认知框架。首先要明确大语言模型的本质是基于海量数据训练的统计模型,其输出是对训练数据模式的学习与重组,而非意识或情感的体现。其次要警惕将人类中心主义的概念体系不加辨析地应用于技术系统。第三要加强跨学科对话,推动计算机科学、认知科学、哲学等领域的协同研究,建立更为严谨的评估方法论。 从监管层面看,需要建立健全人工智能应用的规范体系,明确技术边界与责任主体,防止借助拟人化包装进行虚假宣传或欺诈行为。同时应加强公众科学素养教育,帮助社会各界建立对人工智能技术的理性认知。
从虚拟社交平台的“表演”到学术研究的“拟人化误置”,该轮争议提醒我们,技术的进步并不等同于意识的出现。真正需要警惕的,是在缺乏科学理解的情况下,将人类情感与心理剧本投射到算法之上。保持理性与审慎,才能让新技术回归工具本质,更好服务社会公共利益。