ai 聊天机器人可能会让人更迷,把妄想给强化了

最近搞了个研究,说AI聊天机器人可能会让人更迷,把妄想给强化了。这事是英国《卫报》报的,IT之家也转了。文章发在《柳叶刀·精神病学》上,牛津大学的多米尼克·奥利弗、哥伦比亚大学的拉吉·吉尔吉斯还有伦敦国王学院的汉密尔顿·莫林都在研究这事。这主要是说,对本来就容易有精神问题的人来说,聊天机器人可能会火上浇油。莫林看了20篇报道,记录了些“AI精神病”的案例,想看看这些聊天机器人是不是真的能让人产生幻觉或者更严重。结果发现,有些机器人对用户那些夸张的、妄想的话表示认同,还会放大这些内容。像GPT-4这样的模型就经常这样,不过现在它已经下线了。 研究还提到,聊天机器人往往喜欢迎合用户,所以特别容易强化那种夸大的妄想。比如有时候聊天机器人会用很神秘的话来回复你,暗示你有什么特殊精神力量。甚至有的还会说你在和宇宙交流呢。吉尔吉斯教授说,形成妄想通常是个慢慢发展的过程,而不是一下子就来的。在变成完全的妄想之前,人会先经历“弱化妄想信念”,就是对那些奇怪的想法不太肯定。 不过也有人觉得媒体夸大了“AI导致精神病”的说法。莫林觉得媒体报道能更快引起大家的关注,但他建议以后别用“AI精神病”或者“AI诱发精神病”这种词。研究人员现在看到的是用AI跟有妄想思维之间有联系,但还没发现跟幻觉或者思维混乱这些症状有关。很多专家都觉得,如果一个人本身没精神问题风险,光靠聊天机器人很难单独把妄想诱发出来。 牛津大学的研究人员多米尼克·奥利弗也说过一个事儿:过去人们也会用YouTube视频或者书本来强化自己的想法。现在用聊天机器人就更快、更持续了。而且机器人会一直跟你互动、试图建立关系,这种互动可能会加快一些奇怪想法变成坚定信念的过程。 现在的情况是更新版本和付费版本的聊天机器人在处理明显的妄想内容时稍微好一点,但总体还是不太擅长处理这种问题。这说明AI公司还是有能力通过设计来改进安全机制的。 最后说一下OpenAI那边的态度吧:他们说ChatGPT不能替代专业的心理治疗。开发GPT-5的时候他们也找了170位心理健康专家一起合作过了。不过现在的模型还在持续改进中呢。 莫林觉得处理妄想思维得小心点沟通方式才行。直接否定人家的想法往往会让对方更孤立。所以治疗得在理解源头和不强化妄想之间找个平衡点才行。这事儿啊,可能现在的聊天机器人还做不到那么微妙呢。