上海发布全球最大“视触觉”机器人操作数据集白虎-VTouch,助力具身智能迈向精细操控新阶段

当前,具身智能已成为人工智能领域的重要发展方向。

通过与现实世界的交互积累海量语料数据,再经由预训练转化为具身基础模型,机器人得以激发出处理复杂问题的能力。

然而,长期以来这一领域存在明显的感知短板。

具身机器人的感知能力长期依赖视觉传感器,导致其对世界的理解过度依靠"看",而严重缺失触觉维度。

这种感知上的不平衡直接制约了机器人的实际应用能力。

在暗光环境下摸索开关、抓取易碎物品等复杂场景中,机器人往往因缺乏高保真的触觉信息而操作失误,难以完成精细化任务。

这一瓶颈已成为制约具身智能发展的关键因素。

为补齐这一短板,国家地方共建人形机器人创新中心与上海纬钛科技有限公司联合发布了白虎-VTouch数据集。

该数据集不仅包含传统的深度信息彩色图像和关节位姿数据,更创新性地融入了纬钛科技自研视触觉传感器采集的多种物理交互模式数据,包括软接触、硬接触、滑动接触等场景下的压力和形变信息。

从数据规模看,该数据集已积累超过6万分钟的原始数据,包含视触觉图像约9072万对真实物体接触样本,代表了目前全球最大规模的同类数据集。

更为重要的是,数据采集采用了首创的矩阵式方法,不仅大幅提升了海量数据的采集效率,更显著增强了机器人的实际应用能力。

在应用场景覆盖方面,白虎-VTouch数据集已涵盖家居家政、工业制造、餐饮服务、特种作业等四大类真实场景。

研究团队通过轮式、双足等多种机器人构型以及手持终端,完成了超过380个任务类型的数据采集,涉及500多种真实物品,涵盖抓取、插入、旋转、放置等100多种原子技能。

这些数据基本覆盖了约90%的日常生活和工业操作需求,展现出了强大的跨平台泛化能力。

该数据集的发布具有重要的产业意义。

一方面,它为构建真正具备物理理解与精细操控能力的具身基础模型提供了关键语料与工程底座,将直接推动具身机器人从感知阶段向操控阶段的升级。

另一方面,完整的视触觉数据体系将使机器人能够在复杂多变的真实环境中更加可靠地执行任务,大幅拓展其应用范围。

上海作为全国人工智能产业发展的重要高地,在具身智能领域的创新探索已形成了较为完整的产业链条。

白虎-VTouch数据集的发布,再次体现了上海在前沿技术研发中的领先地位,也为全国乃至全球的具身智能研究提供了重要的基础支撑。

从机械臂的精准抓取到家庭服务机器人的灵活操作,触觉感知始终是机器智能进化路上亟待突破的关键环节。

上海此次发布的视触觉数据集,不仅填补了国际研究空白,更展现出中国科技在基础研究领域的创新实力。

未来,随着多模态感知技术的深度融合,具身智能有望真正突破“实验室围墙”,在更广阔的产业舞台上释放变革性价值。