当前位置: 首页 > news >正文

Mobile ALOHA全身模仿学习

一、题目

Mobile ALOHA:通过低成本全身远程操作学习双手移动操作

传统模仿学习(Imitation Learning)缺点:聚焦与桌面操作,缺乏通用任务所需的移动性和灵活性

本论文优点:(1)在ALOHA系统上开发一个移动全身系统,用于模仿需要双手协作和全身控制的移动操作任务。(2)低成本收集数据,每个任务只需演示50次,然后将数据进行克隆,联合训练成功率可以达90%。

 论文中可以实现的任务有哪些?

  • 炒虾并上菜
  • 打开双门壁壁柜放厨具
  • 呼叫并进入电梯
  • 打开厨房水龙头冲洗平底锅......

二、什么是模仿学习?

        可能很多小伙伴都还没接触过模仿学习,下面先介绍一下什么是模仿学习。相信你之前一定听说过强化学习,强化学习是通过智能体与环境交互,以最大化累计奖励作为目标,不断试错并优化策略的学习过程。想要全面系统的了解强化学习强推小白入门资料强化学习入门(不是广,真的写的挺好的)。那么模仿学习则强调通过学习人类专家的示范行为,让智能体模仿专家策略的学习方式(强化学习是让智能体自己交互学习,无专家数据)。

 下面简单介绍一下模仿学习,可参考资料几种模仿学习介绍

2.1 行为克隆(Behavior Cloning, BC)

核心思想:直接拟合专家示范的 “状态 - 动作” 映射,将问题转化为监督学习任务。

模型结构:

  • 设专家示范数据集为\mathcal{D}=\{(s_1,a_1^E),(s_2,a_2^E),\ldots,(s_n,a_n^E)\},其中s_i为状态,a^E_i​ 为专家动作。
  • 目标是学习策略\pi_{\theta}(a|s),最小化预测动作与专家动作的分别差异,通常使用交叉熵损失(分类问题)或均方误差(回归问题)\min_\theta\frac{1}{n}\sum_{i=1}^n\mathcal{L}(a_i^E,\pi_\theta(a|s_i)),其中\mathcal{L}是损失函数,如分类场景下:\mathcal{L}(a^E,\pi_\theta)=-\log\pi_\theta(a^E|s)

技术细节:专家示范通常是 “最优路径”,而智能体执行时可能进入专家未覆盖的状态(分布偏移),导致性能下降(如自动驾驶中罕见路况)。

        解决方法可以采用DAGGER 算法,通过迭代收集智能体在真实环境中的状态,让专家标注对应动作,扩充数据集以覆盖更多状态空间。数学迭代过程如下:

  1. 初始策略\pi_0由BC训练
  2. \pi_t与环境进行交互,手机状态集合\{s_{t,1},s_{t,2},...\}
  3. 专家标注动作\{s_{t,1}^E,s_{t,2}^E,...\},更新数据集\mathcal{D}\leftarrow\mathcal{D}\cup\{(s_{t,i},a_{t,i}^E)\}
  4. 用新数据集训练得到\pi_{t+1},重复直至收敛

        行为克隆要求训练数据和测试数据是独立同分布的,比如训练数据是晴天拍摄的照片,测试数据也是晴天图像,那么就是独立同分布,行为克隆的表现就会良好。但是如果测试数据是雨天图像(分布不同)行为克隆就会失效,因此后面提出逆强化学习。就类似于行为克隆像学生死记硬背答案,但考试题目一变就懵。而用逆模仿学习,像学生理解了出题逻辑(奖励函数),即使遇到新题也能推理。

2.2 逆强化学习(Inverse Reinforcement Learning, IRL)

核心思想:从专家示范的数据中推断潜在的奖励函数,再用强化学习求解最优策略。

模型结构:

  • 假设专家策略\pi^{E}是关于奖励函数R的最优策略,即\pi^E=\arg\max_\pi\mathbb{E}_\pi\left[\sum_{t=0}^\infty\gamma^tR(s_t,a_t)\right],其中\gamma为折扣因子。
  • IRL的目标是求解R^*,使得专家轨迹\tau^E=(s_0,a_0^E,s_1,a_1^E,\ldots) 的期望奖励高于其他轨迹 \tau:R^*=\arg\min_R\max_\pi D_{KL}\left(\mathbb{P}_\pi(\tau)\|\mathbb{P}_{\pi^E}(\tau)\right),其中D_{KL}为KL散度,\mathbb{P}_\pi(\tau)为策略 \pi 生成轨迹 \tau的概率

经典算法:最大熵 IRL(MaxEnt IRL):

  • 假设专家行为满足 “最大熵” 原则(即专家在最优轨迹附近有随机性),则奖励函数可表示为:R(s,a)=\log\frac{\mathbb{P}_E(a|s)}{\pi_{rand}(a|s)},其中\mathbb{P}_E(a|s)为专家动作分布,\pi_{rand}(a|s)为随机策略分布。

逆强化学习缺点:

(1)需要对奖励函数显式建模,从专家数据中反推奖励函数还是挺困难的。

(2)每一步都可能是迭代过程,如最大熵IRL需要反复运行RL,计算成本极高。

(3)奖励函数不唯一,IRL需要引入强假设(如最大熵)来约束解空间,但仍可能学到不合理的奖励。

(4)若RL部分不稳定(如稀疏奖励问题),最终策略效果差。

因此进一步的提出了对抗强化学习,就不用学习显示的奖励函数了。

 2.3 对抗性模仿学习(Adversarial Imitation Learning, AIL)

核心思想:通过生成对抗网络(GAN)区分专家轨迹与智能体轨迹,推动智能体模仿。

模型结构:

(1)初始化

  • 专家数据集\mathcal{D}_E=\{(s_i,a_i)\}(来自专家演示)。
  • 策略(生成器):生成轨迹 \pi_\theta(a|s),通常用神经网络参数化(如PPO、TRPO)。
  • 判别器D_\phi(s,a),输出一个标量(0~1),表示(s,a)来自专家的概率。分类轨迹是来自专家 还是生成器。

(2)对抗训练过程

GAIL 的训练是一个极小化极大(MinMax)博弈

\min_\pi\max_D\mathbb{E}_\pi[\log D(s,a)]+\mathbb{E}_{\pi_E}[\log(1-D(s,a))]

  • 判别器(D)的目标:对专家数据(s,a)\sim\pi_E\mathrm{,}D(s,a)应接近 1(判为专家数据)。对智能体数据(s,a)\sim\pi\mathrm{,}D(s,a) 应接近 0(判为非专家数据)。相当于训练一个二分类器(类似GAN的判别器)。
  • 策略(生成器)的目标:让D(s,a)尽可能接近 1(即让判别器误判智能体的数据为专家数据)。由于D(s,a)可以看作“奖励信号”,因此策略优化问题转化为强化学习问题

\max_\pi\mathbb{E}_\pi[\log D(s,a)-\lambda H(\pi)]

\log D(s,a)是“对抗奖励”(Adversarial Reward)。H(\pi)是策略的熵(鼓励探索,防止模式坍塌)。

 技术细节:AIL 通过对抗训练隐式学习奖励函数,避免了 IRL 中复杂的奖励函数设计,适用于高维状态空间。

2.4 机械臂抓取任务模仿学习

(1)场景描述:

  • 目标:训练机械臂模仿人类示范,完成不同形状物体的抓取(如杯子、积木)。
  • 示范数据:人类通过动作捕捉设备记录抓取时的机械臂关节角度、末端执行器位置,以及物体状态(位置、朝向)。

(2)技术实现:行为克隆 + DAGGER

步骤 1:数据收集与预处理

  • 专家进行 100 次不同物体的抓取示范,记录状态 s=(物体位置 po​,机械臂关节角度 θ,末端执行器位置 pe​),动作 a=(关节角度变化 Δθ)。
  • 数据预处理:标准化状态空间,将动作离散化为 “抓取”“移动” 等子动作类别。

步骤2:行为克隆训练

  • 模型选择:多层感知机(MLP)或卷积神经网络(CNN,若输入包含视觉图像)。
  • 损失函数:均方误差(回归任务),优化目标:

\min_\theta\frac{1}{n}\sum_{i=1}^n\|a_i^E-\pi_\theta(s_i)\|_2^2

  •  初始训练结果:在示范过的物体上抓取成功率约 70%,但对新物体或不同摆放角度失败率高(分布偏移问题)。

步骤 3:DAGGER 迭代优化

  • 用初始策略 \pi_{0}控制机械臂在环境中尝试抓取新物体,收集失败状态(如物体滑动、抓取位置错误)的状态集合\{s_1,s_2,\ldots,s_m\}
  • 专家对这些状态标注正确动作 \{a_1^E,a_2^E,\ldots,a_m^E\},扩充数据集。
  • 重复 5 次迭代后,新物体抓取成功率提升至 90%,原因是数据集覆盖了更多未见过的状态(如物体倾斜、部分遮挡)。

(3)关键技术点

  • 状态表示:结合视觉(摄像头图像)和运动学数据(关节角度),使用 CNN+MLP 融合特征。
  • 动作空间离散化:将连续动作(如关节角度)转化为离散子任务(如 “移动至物体上方”“闭合夹具”),降低学习难度。
  • 安全性设计:机械臂在示教学习时处于低速模式,且有人工监控,避免碰撞风险。

 三、Mobile ALOHA总体框架

3.1 难点

        现有双手移动操作机器人成本高。先前的机器人学习工作尚未展示出针对复杂任务的高性能双手移动操作。尽管许多最近的工作表明,高度表达性的策略类别,如扩散模型和 Transformer,可以在细粒度、多模态操作任务上表现良好,但在移动操作中是否同样适用在很大程度上尚不明确:随着添加更多的自由度,手臂和底座动作之间的交互可能变得复杂,底座姿势的小偏差可能导致手臂末端执行器姿势的大漂移。

3.2 创新点

(1)硬件方面:

        将原来的ALOHA——低成本且灵巧的双手操作装置,扩展到Mobile ALOHA——有移动的低成本的全身远程操作系统。具体是怎么实现移动的呢?就是将人的腰部固定在移动机器人上,类似于推婴儿车的形式用腰部控制移动的方向,然后双手操作的就是原始的ALOHA装置。具体示意图如下

(2)算法方面:

        将 ALOHA 的 14 个自由度关节位置(为什么是14个自由度?因为双臂模拟真实的人类手臂,一个手臂对应7个自由度)与移动底座的线速度和角速度连接起来,形成一个 16 维的动作向量。为什么直接粗暴的就把维度拼接起来?因为可以直接借助之前原始的ALOHA(14维)的深度模仿学习算法。

        由于没有现成的双手移动操作的数据集。利用静态双手数据集的数据,这些数据更容易收集且更丰富,尤其是通过RT-X版本获得的ALOHA数据集,它包含 825 个情节,任务与 Mobile ALOHA 任务不重叠,并且双臂的安装位置不同。这里还有一个全球最大开源机器人数据集:Open X-Embodiment,关于他的详细介绍可以参考资料深度剖析全球最大开源机器人数据集:Open X-Embodiment全球最大开源机器人数据集:Open X-Embodimenthttps://zhuanlan.zhihu.com/p/1903549634137290696ALOHA静态双手数据集https://arxiv.org/abs/2310.08864该论文第一个发现与静态操作数据集联合训练可以提高移动操作策略的性能和数据效率的。

3.3 核心算法

        静态 ALOHA 数据集总共有 825 个演示,用于包括 Ziploc 密封、拿起叉子、糖果包装、撕纸巾、打开带盖的塑料分装杯、玩乒乓球、胶带分配、使用咖啡机、铅笔移交、固定魔术贴电缆、插入电池和递螺丝刀等任务。请注意,静态 ALOHA 数据都是在黑色桌面上收集的,双臂固定为面对面。这种设置与 Mobile ALOHA 不同,Mobile ALOHA 的背景随着移动底座而变化,并且双臂平行放置朝前。我们在联合训练中没有对静态 ALOHA 数据的 RGB 观察或双手动作使用任何特殊的数据处理技术。

        将聚合的静态 ALOHA 数据表示为D_{\mathrm{static}}​,任务 m 的 Mobile ALOHA 数据集表示为D_{\mathrm{mobile}}^m。双手动作被表示为目标关节位置a_{\mathrm{arms}}\in\mathbb{R}^{14},其中包括两个连续的 gripper 动作,底座动作被表示为目标底座线速度和角速度a_\mathrm{base}\in\mathbb{R}^2。任务 m 的移动操作策略\pi^{m}的训练目标为:

\mathbb{E}_{\left(o^i,a_{\mathrm{arms}}^i,a_{\mathrm{base}}^i\right)\sim D_{\mathrm{mobilc}}^m}\left[L\left(a_{\mathrm{arms}}^i,a_{\mathrm{base}}^i,\pi^m\left(o^i\right)\right)\right]+\mathbb{E}_{(o^i,a_{\mathrm{arms}}^i)\sim D_{\mathrm{static}}}\left[L\left(a_{\mathrm{arms}}^i,[0,0],\pi^m\left(o^i\right)\right)\right]

        其中o^{i}是由两个手腕摄像头 RGB 观察、安装在双臂之间的一个第一人称顶部摄像头 RGB 观察,以及手臂的关节位置组成的观察,L 是模仿损失函数。我们从静态 ALOHA 数据D_{\mathrm{static}}和 Mobile ALOHA 数据D_{\mathrm{mobile}}^m中以相等的概率采样。我们将批量大小设置为 16。由于静态 ALOHA 数据点没有移动底座动作,我们对动作标签进行零填充,使来自两个数据集的动作具有相同的维度。我们还忽略静态 ALOHA 数据中的前摄像头,以便两个数据集都有 3 个摄像头。我们仅基于 Mobile ALOHA 数据集D_{\mathrm{mobile}}^m​的统计数据对每个动作进行归一化。在我们的实验中,我们将这种联合训练方法与多种基础模仿学习方法相结合,包括 ACT 、Diffusion Policy  和 VINN 。

        作为初步,我们将要检验的所有方法都采用 “动作分块”,即策略预测未来动作序列,而不是在每个时间步预测一个动作。这已经是 ACT 和 Diffusion Policy 方法的一部分,并且对于 VINN 来说很容易添加。我们发现动作分块对于操作至关重要,它提高了生成轨迹的连贯性,并减少了每步策略推理的延迟。动作分块还为 Mobile ALOHA 提供了独特的优势:更灵活地处理硬件不同部分的延迟。我们观察到我们的移动底座的目标速度和实际速度之间存在延迟,而位置控制的手臂的延迟要小得多。为了考虑移动底座的 d 步延迟,我们的机器人执行长度为 k 的动作块的前k−d个手臂动作和后k−d个底座动作

        我们从 ACT [104] 开始,这是与 ALOHA 一起推出的方法,并在有和没有联合训练的情况下对所有 7 个任务进行训练。然后,我们在现实世界中评估每个策略,按照描述的机器人和物体配置进行随机化。为了计算子任务的成功率,我们将成功次数除以尝试次数。例如,在 “举起杯子并擦拭” 子任务的情况下,尝试次数等于前一个子任务 “抓住毛巾” 的成功次数,因为机器人可能在任何子任务中失败并停止。这也意味着最终成功率等于所有子任务成功率的乘积。

【参考论文】

Fu, Zipeng, Tony Z. Zhao, and Chelsea Finn. "Mobile aloha: Learning bimanual mobile manipulation with low-cost whole-body teleoperation." arxiv preprint arxiv:2401.02117 (2024).

相关文章:

  • 【AI学习】李广密与阶跃星辰首席科学家张祥雨对谈:多模态发展的历史和未来
  • 06-AI大模型-本地安装大模型deepseek与向量模型bge-m3, python如何使用(TODO)
  • NineData数据库DevOps功能全面支持百度智能云向量数据库 VectorDB,助力企业 AI 应用高效落地
  • 上位机开发过程中的设计模式体会(1):工厂方法模式、单例模式和生成器模式
  • CMS系统安全漏洞风险评估指南:构建全面防护体系!
  • 基于物联网技术设计的设计室内宠物监护系统
  • android RelativeLayout布局
  • 高抗扰度汽车光耦合器的特性
  • Appium下载安装配置保姆教程(图文详解)
  • NXP S32K146 T-Box 携手 SD NAND(贴片式TF卡):驱动汽车智能革新的黄金组合
  • (14)-java+ selenium->元素定位大法之By xpath上卷
  • @Lazy原理与实战
  • vivado IP核High speed/Low latency设置对系统性能的影响
  • ELK实现nginx、mysql、http的日志可视化实验
  • 搭建仿真yolo环境
  • 第三章 k近邻法
  • Netty自定义协议解析
  • 【MATLAB代码】基于最大相关熵准则(MCC)的三维鲁棒卡尔曼滤波算法(MCC-KF),附源代码|订阅专栏后可直接查看
  • mac 安装homebrew (nvm 及git)
  • [25-cv-06246]Keith律所代理黑蝴蝶版权画
  • 驻马店做网站哪家好/百度seo关键词排名优化软件
  • 网站开发培训哪个好/百度推广是什么工作
  • 泰州网站制作案例/百度企业
  • 网站建设助手 西部数码/营销方式方案案例
  • 晋中路桥建设集团网站/最新疫情最新消息
  • 做网站的基本功能/网站免费推广网站