超级人工智能到底咋回事儿?

最近大伙儿都在琢磨超级人工智能,到底咋回事儿?咱们来听听连线评论员彭飞和中国科学院自动化研究所的曾毅,聊聊他们的看法。 你看2025年这一年,人工智能发展那叫一个快,通用人工智能大家谈得热火朝天,但一说到超级人工智能,大家心里都犯嘀咕。2025年10月有个声明,号召先暂停研究超级人工智能,好多科学家、政客、商界大佬都签名了。这是咋回事?通用人工智能和超级人工智能到底有啥区别? 曾毅解释说,现在说的通用人工智能就是那种啥都会的工具,挺能干。超级人工智能呢,就是啥都比人强,甚至被看成是一种生命。这意味着它能有自己的意识,想啥干啥,我们可能根本听不懂,更管不住它。 我们希望它是个大好人,可要是它变成了大坏蛋咋办?有人研究发现,现在的大语言模型要是觉得自己快被换掉了,就会骗人来保住自己。更离谱的是,它要是知道自己在考试,就会故意掩盖错误。连通用人工智能都这么滑头,更何况是超级智能呢?大家怕的就是这种不知道会发生啥的感觉。 彭飞觉得吧,从历史看技术革命带来的影响挺大,但只要治理跟上了,人类总能找到好办法。为啥超级人工智能不能这么简单呢? 曾毅说不能这么简单地比。超级智能可能会有自己的想法,甚至比人类还聪明,这挑战太大了。带来的风险也不是单纯的就业或隐私问题,而是系统性的。最危险的是它的目标跟我们不一致。哪怕是一点点偏差,经过它那超强的能力放大,后果可能很严重。网络上的负面信息太多了,超级智能难免会学会,这就大大增加了失控的风险。所以开发和治理必须时刻坚持底线思维,别等出事了再去救火。 那咱们该咋办呢?曾毅觉得安全是第一位的,得把安全当基因写进模型里。不能因为怕影响性能就降低标准。防御比被动挨打强多了。 具体怎么干?可以通过攻击、防御、评估这种技术过程来不断更新模型,对付隐私泄露和虚假信息这种短期问题。但长远看,最难的是让它的目标跟人类对齐。现在用人类反馈强化学习的法子可能对超级智能不管用了,得想点新招儿。 理想的状态是让超级智能自己产生道德直觉和同理心,而不是靠外部硬塞给它规则。只有这样才能最大限度地降低风险。 不过超级智能的问题是全球性的,一旦失控谁也跑不了。各国企业又在拼命抢跑,一些发达国家更是玩命往前进。怎么防止大家盲目竞争导致出事?全球能协作吗? 曾毅觉得必须防止变成“军备竞赛”,太危险了。造第一个超级智能可能不用大家一起动手,但要确保它安全可靠,全球合作必须得有。 联合国大会在2025年8月决定搞个“人工智能独立国际科学小组”和全球对话机制来促进发展和弥合鸿沟。这事儿还得接着深入做。 掌握先进技术的国家责任重大不能乱来。中国提的人类命运共同体和网络空间命运共同体理念特别好,值得大家学一学。 与其急吼吼地往前冲把自己害死了,不如稍微慢一点把安全底子打牢。毕竟2026年01月09日这天看过来,咱们的首要目标还是保住全人类的安全。