陈天桥带领他的团队公布了一个叫MiroThinker 1.5的模型,这是他们尝试给AI找条新路子。现在大家都在拼命发展AI,这次他们搞出了个强调“质量效率一起提升”和“能互动”的新路子。陈天桥和清华大学的代季峰教授一块儿发起了这个项目,就在去年,陈天桥就说“发现式智能”是通往通用人工智能(AGI)的关键一步。他觉得真正的智能不是记住一大堆东西,而是遇到不知道、不明白的事能自己琢磨、找人验证、不断修改。这个模型大概有300亿个参数,在像BrowseComp这样的国际大考里表现得特别好,甚至能跟那些参数多十倍的模型比一比。最让人称道的是,它在保证了差不多的水平后,用的钱和运算速度都比别人快很多。这说明光靠加参数不一定行,关键得学会怎么跟外面的世界打交道。 以前大家都觉得只要不停地扩大参数规模就行(这叫Scaling Law),但这法子现在效益越来越低。一味地追求数字上去了,不光费钱费电,还容易把机器变成只记得结论的“复读机”,碰到没见过的新问题就容易出错或胡编乱造。所以团队就琢磨出了个“Interactive Scaling”的法子。他们把AI跟数据库、网络、专业工具打交道的本事,看成跟参数数量、处理上下文长短一样重要的第三个维度。MiroThinker 1.5就把这种“像搞科研一样推理”的法子用到了训练和使用的全过程中。遇到不确定的难题时,它不会直接说出一个概率最高的答案。 而是会启动一个多步骤的“慢思考”:先猜个大概,再去查资料或用工具验证,分析一下反馈结果修正一下猜想,甚至可能反复几次直到得出靠谱的结论。这其实就是在模仿科学家发现问题的逻辑。大家觉得这个路子把AI的发展重心从建一个死的“知识大全”,转到了养一个能动的、会做事的“探索者”上。对于需要特别准、特别深的推理场景像搞科研辅助、分析情报、帮金融做决策、看医生这些领域特别有用。 它让AI不光是处理信息,还能创造新知识。MiroThinker 1.5的出现证明中国科研团队在基础理论和核心技术上也能有大创新。它打破了只看参数大小的老规矩,展示了通过算法创新实现“小模型也能有大智慧”的可能。这条以“发现式智能”和“交互式扩展”为核心的路给解决大模型贵、爱瞎说等问题提供了新想法。未来这条技术路线能不能一直发展下去,以及能不能跟产业结合起来值得我们继续关注。