DreamGen是英伟达推出的创新的机器人学习技术,基于AI视频世界模型生成合成数据,让机器人能在梦境中学习新技能。DreamGen仅需少量现实视频数据,能生成大规模逼真的训练数据,实现机器人在新环境中的行为泛化和环境泛化。DreamGen的四步流程包括微调视频世界模型、生成虚拟数据、提取虚拟动作以及训练下游策略。DreamGen让机器人在没有真实世界数据支持的情况下,凭文本指令完成复杂任务,显著提升学习效率和泛化能力。
DreamGen的主要功能
- 行为泛化:让机器人学习、执行新的行为,无需为每种新行为收集大量的真实世界数据。
- 环境泛化:让机器人在未见过的环境中执行任务。基于在单一环境中收集的数据,机器人能在多种新环境中成功执行任务。
- 数据增强:生成大规模的合成训练数据,提升机器人在复杂任务中的成功率。
- 多机器人系统支持:支持多种机器人系统(如Franka、SO-100等)和不同的策略架构(如Diffusion Policy、GR00T N1等),具有广泛的适用性。
DreamGen的技术原理
- 微调视频世界模型:用目标机器人的遥操作轨迹数据,微调视频世界模型(如Sora、Veo等),捕捉机器人的运动学和动力学特征。基于低秩适应(LoRA)技术,减少模型对原始数据的遗忘,适应新的机器人特征。
- 虚拟数据生成:给定初始帧和语言指令,视频世界模型生成描述预期行为的大量机器人视频序列。视频不仅包含已知行为,包括新环境中的新行为。基于过滤掉不符合指令的“噩梦”视频,确保生成的数据质量。
- 虚拟动作提取:用潜在动作模型(LAPA)或逆动力学模型(IDM)解析生成的视频序列,提取伪动作序列,形成神经轨迹。伪动作序列用在训练下游的视觉运动策略。
- 策略训练:用生成的视频动作序列对(即神经轨迹)训练下游的视觉运动策略。基于神经轨迹,机器人在没有真实世界数据的情况下学习新任务,实现零样本泛化。