“ai 大战”爆发的可能性远远小于“人战”

那个MIT走廊里的一脚,真把人性的底线踢了个透心凉。彭凯平老师举了个例子,说当时那只无人看管的机器人安静走着,只要监控一不管用,围上来踢它、砸它的人立马就多了。这一现象揭示出,当人的排他性和虐待欲被“看不见”遮住的时候,就会彻底爆发。这就给我们提了个醒,要是AI威胁到人类的生存了,肯定不会让它代替咱们,这不是科幻,是实打实的人性。彭凯平还认为,与其把AI弄成一个和咱们一模一样的东西,不如把它当成可升级的器官。算法就是肾脏,算力就是心脏。像色情这种特殊场景可能需要有点仿真身体,但大部分时候它还是个工具。真正让人害怕的不是AI太强,而是人类自己先打起来了,“AI大战”爆发的可能性远远小于“人战”。 刘慈欣老师给咱们描绘了四种未来的可能性。第一种就是技术有好几道难关过不去,硬件、软件还有脑科学的那些沟壑都挖不通的话,真正的强AI就只能是个空想。第二种呢是AI给咱们当牛做马干活儿,我们像牧羊犬一样在旁边监管调度。这要是制度和伦理也跟上了进度,这世界能一起建设得挺好的。第三种是智商一万六的AI把咱们给反杀了。算法一旦指数级地往上飙升,人类可能连宠物都不如了,甚至会变成食物。这种情况也不是吓唬人,硬科幻里通常都是这样设定的——资源总会被更高效的那方抢走。 最光明的一种路径是把芯片、神经接口、量子大脑这些东西装进咱们的身体里,让肉体和算法一块儿进化。不过有个难题在于我们对大脑的了解还停留在石器时代呢,脑科学落后需求至少三百年。 最悲惨的结局也不一定是彻底完蛋,反倒是那种不死不活的状态让人最难受。无论是变成外星人的奴隶还是实验室的试验品,只要种族从宇宙里消失了就是最坏的结局。而彭凯平老师说还有比这更惨的,就是“要死不死”的那种状态。死亡速度决定了痛苦程度:慢慢拖死、早早猝死、疼死过去都让人受不了。 数据也能证明这一点:虽然咱们的平均寿命变长了,可真正的“健康岁月”反而比一百年前还短。科技虽然把呼吸的时间拉长了,但生活质量却不一定提升多少。 一句简短的话就能毁灭世界吗?答案其实就在手边。互联网加上手机让宅文化泛滥,气候就容易失控;AI监控多了社交隔离就会加剧,心理也容易崩溃。彭凯平补充说空气污染才是最大的毒药。那些看不见的颗粒在肺里扎了根,只要集体来一次哮喘就能把人类自己给灭了。 我们这是正在亲手操作这一切呢。心理学家们主张不要盲目乐观而要直面凶险,设计对策然后理性行动。把恐惧转化成行动才是真正的光明。 两位专家都觉得最光明的未来就是这样的:四大技术同步成熟——纳米技术造出和上帝造的分子一样的人造分子;信息技术解决人类啃不动的硬骨头;生命技术改写寿命;心理技术让自私和残暴降温——在三到五代人的时间里就会实现。 那时候人类就能进化成尼采说的那种“超人”了。中美两国正站在这个浪潮的最前沿啊!错过了这次机会历史就会再次把我们甩在后面了。 刘慈欣老师觉得所有问题都解决了以后最大的问题就是没事干了。没有战争、没有贫困、没有环境崩溃的天堂反而像地狱一样——因为人类会面临心理上的死亡。真正的光明在于永远向外开拓:星辰大海、虫洞、外星文明……只要前方还有未知和挑战在等着咱们人性就会一直燃烧下去。 引用那句经典的台词吧:“我们应该不断向高处飞。”