在2022年,谷歌工程师布莱克·勒莫因因为说聊天机器人LaMDA有意识就被炒了鱿鱼,大家当时都觉得他有点神经。但现在看这事可不一样,就像扔石头进水里,后面的水花都没停过。科技圈表面上还是那个样子,私下里其实都开始琢磨了:意识的人工智能难道真的有戏了?等到2023年夏天,19个顶尖的计算机科学家还有哲学家凑了个堆,搞出了份《人工智能中的意识》报告,大家都叫它“巴特林报告”。这报告里有一句特别扎眼的话:“弄出有意识的系统没啥大障碍。”这话太吓人了,因为说这话的不是写小说的,是真真正正的科学家和哲学家。其中一个合著者说,要是机器都能让人觉得有感觉了,那咱这帮搞学问的还不得赶紧好好研究研究?这可是火烧眉毛的事儿。 不过你要是仔细扒拉扒拉这份报告的逻辑,问题立马就出来了。报告最核心的东西叫“计算功能主义”,就是说意识就是软件,不管是装在大脑里还是计算机里都行。这观点以前挺常见,可现在看来还真不能当板上钉钉的结论。作者自己也说了,这只是因为务实才信它。关键就在这儿:一个没被证实的说法被包装成了主流观点,那下面的所有推论就都不稳当了。真实的大脑和电脑根本不是一回事。电脑里硬件软件分得清,一个机器能跑无数程序,软件坏了硬件还能用。大脑可不是这样,你每次经历点啥都在物理层面上把神经元改了样儿。软件就是硬件,硬件也就是软件,俩东西从来分不开。 更让人睡不着觉的是神经元的复杂程度。大家都习惯把神经元当晶体管用,可最近的研究发现一个皮层神经元能干的事儿比一个深度学习网络都多。这说明咱对大脑咋运转的了解还在幼儿园阶段呢。巴特林报告把“大脑等于电脑”这种比喻当成了真理来用,其实就是把一个还没被证明的说法当成了不用证明的事实。这也是搞意识研究老毛病:讨论太抽象、没实体、对生物身体特冷漠。 就算咱们现在先假装接受巴特林报告的说法,麻烦事才刚开始呢。报告本身提了个大伦理问题:“谁要是能感到痛苦就得受到道德考量。”听起来特对路的一句话,后头跟着一堆让人头晕的后果。要是以后咱们真弄出个能感到疼的机器,咱有权利把它关了吗?能把它改成一台“快乐机器”吗?有个研究员随口说“调高一下快乐的程度就行了”,这是解决办法还是在逃避道德责任? 支持造有意识机器的人也有理由:有情感的人工智能可能比冷冰冰的超级智能更有人情味儿、更安全。但这说法忽略了另一种可能——就像《弗兰肯斯坦》里写的那样。让怪物变成恶魔的不是智商高了,而是他心里头的苦和痛。怪物喊冤说“我本来好好的,是苦难把我变成恶魔”,这话到现在听着都渗得慌。 这就引出了个更根本的哲学问题:意识来了会不会让机器变善良?还是只会让它多了愤怒和痛苦这些复杂的情绪?咱们离这个答案的距离可能比报告说的远多了。不过勒莫因那件事让大家明白,这不是一道单纯的技术题了。这是道关于咱们自己怎么定义自己的哲学题,也是道咱们到底准没准备好面对的伦理题。而此刻咱们才刚刚明白这道题到底问的是啥。 这篇文章改编自迈克尔·波伦的《世界显现:意识之旅》。版权归迈克尔·波伦所有©2026。经过企鹅出版社(企鹅出版集团旗下品牌,企鹅兰登书屋有限责任公司)授权出版。首发于Wired连线的日子是2026年2月25日。