大模型真的能像人一样“理解”东西

北京的陆成宽记者在6月10日带来了一个大新闻。中国科学院自动化研究所的何晖光研究员和他的团队做了个实验,结果发现大模型真的能像人一样“理解”东西。他们把这发现发表在了《自然·机器智能》上。以前的AI总是停留在物体识别上,把猫狗分得很准就满足了,很少关心模型是不是真的懂它们有什么含义。而这次他们借鉴人脑的思路,给ChatGPT之类的大模型出了个“找不同”的题:从1854种物品里挑出3个,看哪个最不合群。 通过这1854个概念进行了多达470万次的判断后,科学家们画出了一张图,名叫“概念地图”,这张图让大家看到了大模型脑子里的“思维导图”。他们还从这堆数据里总结出了66个关键角度,来解释AI是怎么理解事物的。结果很让人惊喜,这些角度跟人脑里负责物体加工的部分神经活动高度一致。特别是那种既能看文字又能看图的多模态模型,做选择的方式比单靠文字或图片的模型更像人。 不过有趣的是,在做判断的时候,人脑既看形状颜色,也会想用途;而大模型更依赖给它们贴的标签和学来的抽象概念。这就说明它们内部确实发展出了一种有点像人类那样的理解世界的方式。这次研究不仅为搞清楚人工智能怎么“思考”打开了新门路,也给以后造出让人类更满意的智能系统打下了底子。