ai的安全窗口眼看着就没了,人类现在正面临一个大问题:这个文明还能不能存续下去?

说到2014年,哈萨比斯把DeepMind卖给了谷歌。当时他可没闲着,特意要求留着独立做AI安全决策的权力,还得有个外部监督委员会盯着,而且绝对不能让AI用在军事上。不过后来这些想法一个个都落空了,特别是马斯克跳出来搞了个OpenAI,一下子就打破了由一个主体来管AI的那套幻想。到了2022年,ChatGPT一出来,局面就全乱套了。谷歌急了眼,DeepMind干脆就和谷歌大脑合并了。这时候研发速度成了头等大事,以前的那些安全规矩也就顾不上了,防线慢慢也就失效了。 哈萨比斯这人挺有意思,以前是坚定的AI安全倡导者。他老想着通过独立监督、秘密研发这些办法造出绝对安全的超级智能。不过现在他变了,干脆就放弃了靠制度和伦理委员会来管AI的老路子。他认栽了,觉得外部治理根本没法拦住AI发展的脚步。现在他能指望谁呢?只能指望自己有话语权。他一边还在拼命推进像Gemini这种新模型的研发,一边死命守住安全底线。 说实话,这次转变挺残酷的。以前以为有人能出来管管AI呢,结果现在看来统一治理是不可能了。再看看马斯克那边,先是参与了集会,后来转头自己搞OpenAI;谷歌那边也是一路跟着走。大家都在拼命往前冲,谁也停不下来。哈萨比斯现在只能靠敬畏之心和个人影响力来把技术方向给把控住。这就好比现在大家都在抢一个东西一样,竞争太激烈了。 业内的人也都看出来了:全球的AI竞赛现在那是真的残酷。以前觉得能通过制度约束一下AI的发展速度呢?现在看来没戏了。AI的安全窗口眼看着就没了。人类现在正面临一个大问题:这个文明还能不能存续下去?所以说咱们得小心点了。