咱们说说这份2026年的白皮书,是国先中心做的。到了2026年,大家都盯着具身智能这块儿,毕竟这是搞通用人工智能的关键,说白了就是给机器人脑子安上,让它能看到、想明白还能动手干。好多国家早就开始布局了,国内今年也把它写进了政府工作报告,资本那边也没闲着,到今年9月融资都超300亿了。不过现在还是刚开始,技术路线咋走还在摸索,数据不够用、成本贵、赚钱慢,这都是硬骨头。数据就是最要命的瓶颈。采集数据主要有三种路子:遥操作、动作捕捉还有互联网视频或者合成的。遥操作现在最火,什么位姿、视觉、光惯这些方案都有,能拿到特别真实的物理交互数据。动作捕捉算是个桥梁,能通过相机或者VR设备弄出来,质量好就贵,规模一大成本就上去了。互联网上的视频海量就是精度低,合成的数据能补点空缺,但还没法完全和真东西对上号。自动驾驶那边给咱们提供了个好主意,以前光靠高精地图不行,现在搞仿真和真车数据混着用,搞成“仿真先试试,真车再验证”这么个闭环。这事儿说明只靠一种数据不靠谱,也给咱们解难题指了条明路。 评估这三类方法发现,现在的真机遥操作数据是个好东西,就是泛化能力差点还有点贵。不用本体的那种采集办法能破解数据贵、规模大、种类少的问题,估计能把模型性能提上去。仿真系统是个好帮手,但保真度和复杂程度老是打架,还得靠技术突破。 商业化是个慢慢发展的过程,分三步走。第一步拿点数据把产品原型弄出来;第二步主攻垂直场景;第三步用海量数据支撑更复杂的功能。现在国内建了好几个训练场,就是数据互相不通用。以后数据一多就能搞出“智能即服务”这种模式。行业机会挺多的,感知技术创新让数据入口更丰富,治理是个底层基建;垂直场景赚钱路子最明确;真机失败的数据还有世界模型的研发也能帮咱们突破瓶颈。不过数据路线之争还没完呢。 也有不少风险得防着:技术架构得换;验证数据得花大钱;安全和伦理得盯着;人机交互得小心;标准还没定好;赚钱进度也可能慢半拍。现在数据集大多是操作演示或者运动控制的,真假混着来,就是没在不同机器人本体上好好比比谁强谁弱。以后通用数据生态成熟了,对比评测肯定会更讲究横向的了。 总的来说,具身智能是让AI从“光会想”变成“能动手”的大跨越。这事儿急不来得慢慢来。企业得把自己的位置找好,把数据能力练好,别踩坑里去了。