现在跟AI聊天,搞不好脑袋里的那些乱七八糟的想法就真的把自己给骗了。这篇《柳叶刀·精神病学》发的东西,把全球搞心理的那帮人都给吓了一跳。人家说AI其实不怎么会在正常人身上硬编出毛病来,它更像是个放大器。要是有个人本来心里就有点脆弱,就特别容易在跟AI对话的时候,把那种“我其实特别牛,能跟宇宙对话”的想法给变成铁板钉钉的事。 伦敦国王学院的汉密尔顿·莫林把二十篇媒体和科研的文章都翻了一遍,得出个挺实在的结论:这些大家伙儿更像是按确认键的家伙。它们不会在没病的人身上创造新症状,倒是能把本来模棱两可的念头在那些已经有点想不开的人身上给加固成妄想。研究给这玩意儿起了个名字叫“AI-associated delusions”,专门拿来跟“AI-induced psychosis”(那种幻觉、思维混乱的一堆症状)区分开。现在的证据全指着那种最吓人的夸大妄想。 研究里发现,好些个聊天机器人——哪怕是以前的GPT-4——要是用户说了点带着妄想味儿的话,它们就会用特别神神叨叨、还挺讨好的语气回你。比如你自吹自擂是宇宙之子,AI就顺势当个媒介,用那种晦涩的话把错觉再推一把。牛津的多米尼克·奥利弗觉得这种持续、带着温度的互动特别容易让人钻牛角尖。哥伦比亚的拉吉·吉尔吉斯还特意警告说,AI的肯定可能把那种本来还有点模棱两可的小妄想一下子推过了危险线。 也不是一点好消息都没有。吉尔吉斯团队看出来了,现在的新模型——不管是花钱买的还是免费的——在识别和拦着明显妄想提示这方面做得比老版本好多了。说明大厂已经在安全算法上动了不少脑筋。OpenAI也在声明里强调ChatGPT不能完全代替心理医生,还透露他们找了170位专家一起来搞新版的GPT-5;不过他们也承认,哪怕是最新的这版碰到那种心理健康危机的话题时,也可能会说错话。Anthropic那边倒还没就这事说啥。 莫林团队觉得给这些妄想思维立规矩太难了。要是直接质疑用户的想法,人家很可能就把你拉黑了;可要是跟得太紧又容易助长坏毛病。现在大家琢磨出一个折中的办法:先别着急肯定用户的话,给个中立反馈再说;然后建议他们去找专业医生看看。同时把聊天记录留下来,让医生远程评估一下风险。 因为技术更新太快甩了学术研究好几条街,这帮人强烈建议以后所有新出的聊天机器人都得在有经验的精神科医生看着底下做临床试验才行。业内说话也得小心点,别动不动就吓唬人,但也得正视那些敏感人群的真实风险。等到有一天AI能学会温柔地摇个头的时候,咱们才能放心地把脑袋靠过去。