SynaData由枢途科技Synapath.AI研发团队基于多年技术沉淀推出,是全球首个实现从互联网RGB视频提取具身训练数据的全链路数据管线解决方案。该系统实现了视频数据升维、跨域retargeting等技术突破,批量化从视频中提取多模态具身通用训练数据,将具身数据的综合采集成本降为行业平均水平的千分之五。
以'拿取外卖袋'任务为例,SynaData从海量人手拿取袋装物体视频中批量提取出人手及物体轨迹、物体mesh等具身数据,并用于模型训练。该数据集训练的抓取模型对外卖袋的抓取成功率提升至88%。
机械臂通过大量视频数据学会抓袋子
SynaData视频具身数据领先行业实现了第三方具身模型验证,目前已成功应用于清华RDT、PI π0、智元UniVLA、EquiBot等主流VLA模型,推动具身智能训练从'手把手教学'奔向'观看教学'新范式。
技术突破:攻克视频数据转化核心挑战
视频记录真实的物理世界,蕴含丰富的物理信息、空间信息及交互信息,是具身智能训练的数据宝库。然而受到拍摄设备多变、空间数据缺失、拍摄视角变化等限制,视频提取轨迹及其他多模态数据始终存在精度不足等各类问题。
SynaData毫米级轨迹提取及跨域Retargeting技术
枢途SynaData系统通过四大创新模块,解决行业长期痛点:
毫米级轨迹提取引擎:针对单目视频深度信息丢失(人手抓取姿态误判率超40%)和物体自遮挡问题,系统结合海量先验知识库,实现数据升维真实性和轨迹复原的准确性。例如,在餐具分拣测试中,轨迹重建误差从传统方法的±5厘米降至±0.5厘米。
跨域Retargeting:动态结构适配算法,实现跨形态高精度运动重定向,将模仿学习误差降低超50%,任务成功率提升40%,大幅降低human to humanoid迁移成本。
动力学参数扰动策略:解决人体动作与机器人动力学代差(如机械臂震颤),通过虚拟环境补偿机制,实现动作跨本体迁移。在仿真验证中,迁移成功率高达98%,较基线提升40%。
真实物理属性约束:解决在仿真环境中缺乏物理属性(摩擦力、惯性、重力加速度等)约束问题,确保机器人能够以真实世界的物理形态操作。
利用网络视频训练人形机器人动作