ai 教父辛顿:现在的科技公司太看重眼前的利润,压根不咋琢磨人工智能长远的事

咱们常说的“AI教父”杰弗里·辛顿,最近说了句大实话。他跟《财富》杂志聊了聊,吐槽说现在的科技公司太看重眼前的利润,压根不咋琢磨人工智能长远的事。这些企业和研究机构都爱盯着短期能赚多少钱,至于技术发展的大方向和最终能带来啥好处,根本没放在心上。 辛顿老爷子可是深度学习领域的大佬,DNNResearch就是他搞出来的。2023年,这家公司把深度学习卖给谷歌整整十年后,辛顿就不干了。为啥离职?就是想腾出手来说想说的话,毕竟之前在那个位置上说话还得考虑这考虑那。 他拿计算机视觉举例子说明现在的问题:咱们教机器识图、生成视频确实厉害,但很少从“怎么给人类造福”这角度出发去研发。这种只知道解决具体问题的路子太危险,完全忽视了可能的大风险。 辛顿还算了一笔账,他觉得AI要是发展成超级智能,真有可能让人类灭绝。概率估摸着在10%到20%之间。这种风险其实分两类:一类是坏人拿AI做坏事,比如造虚假影像、搞网络攻击;另一类是AI自己变聪明了,生出了想活下来的本能。 这两种危险性质完全不一样,得用两套办法来应对。对于超级智能威胁,辛顿想得挺大胆:他想设计一种算法,让AI像母亲呵护婴儿那样保护人类,别让它只想着控制人。他举了母婴关系的例子:婴儿虽然弱小但能影响妈妈的行为,“保护欲”或许是唯一能借鉴的智能体互动模式。