当前,具身智能已成为机器人领域的重要发展方向;机器人通过与现实世界的持续交互积累大量数据,并借助预训练将其转化为具身基础模型,从而具备处理复杂任务的能力。但长期以来,该领域仍存在明显短板:具身机器人的感知瓶颈,很大程度上来自数据来源过于单一。传统机器人操作数据集主要依赖视觉传感器,使机器人过度依靠“看”来理解环境,触觉维度的信息严重缺失。这种感知失衡直接影响真实应用表现。在暗光环境下摸索开关、抓取易碎物品等场景中,机器人往往因为缺乏高保真触觉数据而难以完成精细操作。此次发布的白虎-VTouch数据集,正是为补齐这一关键缺口而来。该数据集由国家地方共建人形机器人创新中心与上海纬钛科技有限公司联合推出,旨在补充具身智能缺失的触觉与接触数据,为构建具备物理理解与精细操控能力的具身基础模型提供关键支撑。 从数据结构看,白虎-VTouch实现了多模态的深度融合。数据集不仅包含带深度信息的彩色图像数据与关节位姿数据,还通过纬钛科技自研的视触觉传感器,采集软接触、硬接触、滑动接触等多种物理交互模式下的压力与形变数据,使机器人获得更接近人类触觉体验的感知信息。 在数据规模上,该数据集已积累超过6万分钟操作记录,包含约9072万对真实物体接触样本,规模在全球同类数据集中处于领先水平,可为模型训练提供充足数据支撑。 值得关注的是,白虎-VTouch采用矩阵式数据采集方法。与传统单一任务采集相比,该方法大幅提升了大规模数据获取效率,同时强化了机器人的实际应用能力与跨场景适应性。 从应用覆盖面看,该数据集覆盖家居家政、工业制造、餐饮服务、特种作业四类真实场景。研究团队结合轮式、双足等多种机器人构型及手持终端,完成了超过380个任务类型的数据采集,涉及500多种真实物品,涵盖抓取、插入、旋转、放置等100多种原子技能。这样的覆盖范围基本可满足约90%的日常生活与工业操作需求,体现出较强的跨平台泛化潜力。 这一进展对具身机器人产业具有现实意义。更完整的视触觉数据将帮助机器人更准确地理解与适应复杂物理环境,提高操作精度与可靠性,为具身机器人从感知走向精细操控提供重要基础。
具身智能的竞争,不仅是算法与硬件的竞争,也是数据与工程体系的竞争。补齐触觉与接触数据短板,意味着机器人开始更真实地理解“接触”这个物理世界的关键信息。面向未来,持续扩大高质量多模态数据供给,完善开放共享与评测机制,推动产学研用协同落地,将有助于具身智能从实验室能力加速转化为可验证、可复制的产业能力,为服务民生与推进新型工业化提供更扎实的技术支撑。