虽说AI的能力已经把很多人类都给超越了,但这个事儿还是得听全国政协委员、奇安信科技集团董事长齐向东的话,他认为AI发展最大的核心就是安全问题。就好比人要是有才没德,危害比啥都大,AI也是一样,没有意识跟道德观念的它可全凭人摆弄。这风险可比能力匮乏要吓人得多。比如有人用AI伪造视频诈骗,要是画面里的手指不对劲,大家一眼就看穿;但要是破绽都被修好了,那损失可就大了。所以,咱们得给“AI超人”指条明路,不然能力再强也是摆设。 如今AI已经从玩儿信息变成了能动手动脚,甚至是有生物特征的东西,风险也就跟着翻了好几倍。现在大家碰到问题总先问大语言模型,有些AI一本正经地胡说八道也就算了;可一旦让那种拥有超级权限的智能体干错了事,那直接就是掉钱袋子。最近就出了个新闻:Meta的一个AI安全研究员被OpenClaw给删了好几百封邮件,他连输3次指令都停不下来,这才把AI的漏洞露给大家伙儿看。至于那些能思考又能动手的“具身智能”,更是得防着脑子进水或者被坏人控制了动手脚。 从咱们老百姓的角度看大伙儿为啥对换脸软件那么警惕,为啥医院银行都不敢随便用AI,哪怕是那些很懂行的发烧友也不愿意轻易放权?说白了就是因为不靠谱、让人心里没底。再说这事儿还跟最近那个叫“HALO”的交易挺像的,本来是因为大家心里对AI有焦虑才闹得这么热乎呢。看来限制AI发展的天花板不是技术有多高,而是安全水平够不够。 至于为啥安全这事儿没个底儿?其实是因为创新和安全这对冤家长期在那儿较劲。有人说大语言模型爱说瞎话跟乱发散是一个道理;也有人觉得不一样的幻觉是不一样的病;但大家都承认一个事儿:AI还是个黑箱还没打开。更别提那种突然就厉害起来的“涌现”现象了,这对管治水平要求特别高。所以啊,咱们得内外一起修才行,这样才能让“AI超人”发挥点儿正面作用。