黄仁勋:token 燃烧不可避免的时候,像迅策这样深耕行业know-how的玩家正用高质量数据书写新的规则呢

黄仁勋这个CEO最近的一番话挺让人意外的,我记得他说AI的下一个时代要开始了。他觉得以前的模式不行了,光靠堆GPU和建大模型的话,未来的路会越走越窄。他还举了个例子,就好比过去五年,我们总觉得“更大的模型就更厉害”,结果英伟达拿了大赢家,现在的情况已经变了。他现在强调的是AI要会思考、能反思,也就是推理能力。这就好比以前我们只知道往前冲,现在得学会绕着走。 过去大家都在算盘算着怎么堆算力,觉得只要数据量大、模型大就万事大吉。可这真的对吗?现在看来不见得。因为通用AI在处理复杂任务时,经常是token用光了效果还不好,这就像是开车走了很多冤枉路。这种情况下,我们需要的是专业的数据来做引导。 迅策科技这家公司挺有意思的,他们手里掌握了很多高质量的垂直行业数据。这些数据就像给AI模型画了一张地图,告诉它哪里有坑别去踩。这样一来,在真正消耗token之前就能先做个预判,避免浪费资源。而且随着生态的发展,这些token以后会变成硬通货。 这里面最关键的一点是商业模式的变化。以前token的价格主要看算力成本和供求关系,现在不一样了。“效价”——也就是单位token能带来多少业务产出——开始由数据质量来决定了。 这让我想起了几年前GPU大火的时候,那时候大家都觉得只要有硬件就行。但现在显然不同了,光有硬件和模型不够用。这时候你得有好的数据来喂它才行。迅策科技这种深耕Know-how的做法就很值得我们学习。 他们通过高质量的数据为每一次token调用加了个“增效器”,这样在消耗的时候就能换来更精准的结果。这其实就是在构建一个强大的竞争壁垒。一旦用户习惯了这种模式,切换成本就会很高。 最后我想说的是,“Token燃烧不可避免”,这是大势所趋。但是让每一枚token都变得更值钱才是真正的核心价值。这也是资本市场对迅策增长确定性的期待所在。当全球巨头都在追求“大力出奇迹”的时候,像迅策这样深耕行业Know-how的玩家正用高质量数据书写新的规则呢!