就在最近一次的科技与科幻碰头会上,360集团的老板周鸿祎,跟那位写《三体》的刘慈欣坐在一起,扯了扯未来AI是啥样。咱们先说说刘慈欣那边的观点,他觉得以后AI要是聪明过了咱们,人类可能得把手里的权力分出去一些。他说未来的文明主体恐怕不光是咱们人类,可能还得有智能系统一起凑个数。 而周鸿祎则是站在干活的角度看问题,他估计未来三年到五年,就会有那种能自己拿主意的"百亿级智能体"跑出来。他还说这就像生物世界里的共生,AI不会把人给替换了,反倒是成了咱们的"外脑"。听说360现在正在搞的那个具身智能系统,就是在试验这种新玩法。 两人在安全这块儿倒是意见一致。周鸿祎特意提了个"以AI对抗AI"的招数来堵漏洞,他们家搞出了一套算法审计加数据防护的安全体系。刘慈欣接着话茬说,要想让大家伙儿放心用机器,不光得靠技术,还得有制度上的规矩,"就像管核武器那样"。 这就引出了个大问题:技术得往前冲,可防护的网还得织得密。咱们得一边欢迎文明形态的变样子,一边守住人类的基本底线。现在像360这些企业都在玩命搞AI安全的防范措施,以后怎么把技术进步跟社会风险摆平了,这可就是决定人类文明到底往哪儿走的关键事儿。