我国科研团队突破具身智能数据采集瓶颈 首创高精度仿生手部行为捕捉系统

问题——具身智能走入物理世界后,数据短板逐渐成为主要掣肘;近年来,基于文本、图像、视频等数据的模型能力提升很快,但当系统从屏幕进入真实环境,需要完成开放场景中的拿取、旋拧、按压、整理等交互任务时,仅靠视频式“观察”往往难以覆盖物理接触带来的约束与反馈。业内普遍认为,具身智能要获得稳定、可泛化的操作能力,需要来自真实生活的“人类数据”:不仅记录“看到了什么”,还要记录“手怎么动、用力多少、接触在哪里、动作结果如何”。

从“看懂世界”到“动手改变世界”,具身智能需要的不仅是更强的算法,更需要可持续供给的高质量交互数据。以双手为入口、以“头—手”闭环为路径,推动数据从“可记录”走向“可训练、可泛化”,有望为灵巧操作能力的突破打下更扎实的基础,也为智能体进入更广阔的真实场景打开空间。