人类只需要展示五次,就能让机器人学会一项复杂技能。
英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案—— DexMimicGen 。
五次展示之后,DexMimicGen就可以直接模仿出1000个新的demo。
而且可用性强,用这些新demo训练出的机器人,在仿真环境中的任务成功率可以高达97%,比用真人数据效果还要好。
参与此项目的英伟达科学家范麟熙(Jim Fan)认为,这种 用机器训练机器 的方式,解决了机器人领域最大的痛点(指数据收集)。
同时,Jim Fan还预言:
值得一提的是,DexMimicGen三名共同一作都是李飞飞的“徒孙”,具体说是德克萨斯大学奥斯汀分校(UT奥斯汀)助理教授朱玉可(Yuke Zhu)的学生。
而且三人均为华人,目前都在英伟达研究院实习。
5次展示,生成1000条数据
如前所述,DexMimicGen可以仅根据人类的5次展示,生成1000个新DEMO。
在整个实验中,作者设置了9个场景,涵盖了3种机器人形态,共进行了60次展示,获得了21000多个生成DEMO。
在仿真环境当中,用DexMimicGen生成数据训练出的策略执行整理抽屉这一任务,成功率可达76%,而单纯使用人工数据只有0.7%。
对于积木组装任务,成功率也从3.3%提升到了80.7%。
成功率最高的任务是罐子分类,更是高达97.3%,只用人工数据的成功率同样只有0.7%。
整体来看,在仿真环境中,生成数据让机器人在作者设计的九类任务上的成功率均明显增加。
相比于baseline方法,用DexMimicGen生成的数据也更为有效。
迁移到真实环境之后,作者测试了易拉罐分拣的任务,结果仅用了40个生成DEMO,成功率就达到了90%,而不使用生成数据时的成功率为零。
除此之外,DexMimicGen还展现了跨任务的泛化能力,使训练出的策略在各种不同任务上表现良好。
针对初始状态分布变化,DexMimicGen也体现出了较强的鲁棒性,在更广泛的初始状态分布D1和D2上测试时,仍然能够拥有一定的成功率。
将仿真方法迁移到现实
DexMimicGen是由改造而成,MimicGen也出自英伟达和UT奥斯汀的联合团队。
朱玉可和范麟熙都参与过MimicGen的工作,该成果发表于CoRL 2023。
MimicGen的核心思想,是将人类示范数据 分割成以目标物体为中心的片段 ,然后通过 变换物体相对位置和姿态 ,在新环境中复现人类示范轨迹,从而实现 自动化数据生成 。
DexMimicGen则在MimicGen系统的基础上,针对双臂机器人灵巧操作任务做了改进和扩展,具体包括几个方面:
工作流程上,DexMimicGen会首先对人类示范进行采集和分割。
研究人员通过佩戴XR头显,远程控制机器人完成目标任务,在这一过程中就会产生一小批示范数据,作者针对每个任务采集了5~10个人类示范样本。
这些人类示范样本会按照并行、协调、顺序三种子任务定义被切分成片段——
总之,在示范数据被切分后,机器人的每个手臂会得到自己对应的片段集合。
在数据生成开始时,DexMimicGen随机化模拟环境中物体的位置、姿态等数据,并随机选择一个人类示范作为参考。
对于当前子任务,DexMimicGen会计算示范片段与当前环境中关键物体位置和姿态的变换。
之后用该变换对参考片段中的机器人动作轨迹进行处理,以使执行这一变换后的轨迹能够与新环境中物体位置匹配。
生成变换后,DexMimicGen会维护每个手臂的动作队列,手指关节的运动则直接重放示范数据中的动作。
在整个过程中,系统不断检查任务是否成功完成,如果一次执行成功完成了任务,则将执行过程记录下来作为有效的展示数据,失败则将数据丢弃。
之后就是将生成过程不断迭代,直到获得足够量的展示数据。
收集好数据后,作者用DexMimicGen生成的展示数据训练模仿学习策略,策略的输入为RGB相机图像,输出为机器人动作。
最后是模拟到现实的迁移,同样地,作者使用DexMimicGen在数字孪生环境中生成的大规模展示数据,训练模仿学习策略。
之后作者对在数字孪生环境中评估训练得到的策略进行调优,以提高其泛化性能和鲁棒性,并迁移到实际机器人系统中。
作者简介
DexMimicGen的共同一作有三人,都是UT奥斯汀的华人学生。
并且三人均出自李飞飞的学生、浙大校友朱玉可(Yuke Zhu)助理教授门下,他们分别是:
朱玉可的另一重身份是英伟达的研究科学家,团队的另外两名负责人也都在英伟达。
他们分别是Ajay Mandlekar和范麟熙(Jim Fan),也都是李飞飞的学生,Mandlekar是整个DexMimicGen项目组中唯一的非华人。
另外,Zhenjia Xu和Weikang Wan两名华人学者对此项目亦有贡献,整个团队的分工如下:
△中文为机翻,仅供参考
项目主页:https://dexmimicgen.github.io/论文地址:https://arxiv.org/abs/2410.24185参考链接:[1]https://x.com/SteveTod1998/status/1852365700372832707[2]https://x.com/DrJimFan/status/1852383627738239324