当前位置: 网站首页 技术文章 正文

斯坦福团队让机器人学会系鞋带啦,还开源了呢!

来源:互联网 发布时间:2024-09-18 16:02:33

就在今年初,斯坦福大学刚刚教会机器人如何烹饪佳肴,现在,他们又有了新突破——机器人学会了系鞋带!

斯坦福团队让机器人学会系鞋带啦,还开源了呢!

不仅如此,斯坦福还首次公开了这一技术的演示视频,展示了机器人独立完成系鞋带的过程。

相较于之前专注于烹饪的版本,这一次的升级让机器人能够处理更为精细和复杂的任务。

网友们对此也是纷纷点赞:

一位网友赞叹道:“这小家伙的手真是灵巧,我系鞋带的技术都比不上它!”

另一位网友则兴奋地表示:“哇哦!真是太棒了!希望这项技术能尽快投入生产!”

还有人评论说:“太可爱了!它居然还能打出蝴蝶结来!”

除了系鞋带,视频中的Aloha 2机器人还展示了其他技能,比如挂衣服、旋转齿轮、整理厨房,甚至为其他“同事”更换不同的功能模块。

让我们一起来看看它是如何操作的吧。

首先是在挂衣服上的表现。在视频中,Aloha 2小心翼翼地将衣物展开,然后轻松地将其挂在衣架上(它还知道轻轻按压以确保衣物不会滑落)。

即使是数据库里没有的衣服款式,它也能顺利完成悬挂。

接着是旋转齿轮的任务。Aloha 2成功地将三个塑料齿轮安装在一个带有摩擦力的插座上,使得齿轮间完美契合。

在“厨房清理”部分,Aloha 2井井有条地将桌面散落的餐具归置整齐。

当需要为其他机器人更换部件时,它也显得游刃有余,先卸下旧的组件,再准确无误地安装新的。

斯坦福团队让机器人学会系鞋带啦,还开源了呢!

它是如何学会这一切的呢?

为了训练Aloha 2,研究团队采用了扩散策略来进行大规模的数据收集和训练,总共在五个任务上收集了超过2.6万个示例数据点。

值得注意的是,整个训练过程仅依赖于模仿学习,并未采用强化学习的方式。

Aloha 2的神经网络架构借鉴了ACT模型,但并没有使用条件VAE编码器。

具体来说,研究者们在嵌入层添加了位置信息,并通过一个拥有8500万参数的Transformer编码器进行处理。之后,使用双向注意力机制进行解码,从而获得对观察结果的潜在表征。

这些潜在表征再传递给另一个带有5500万参数及双向注意力机制的Transformer编码器。

解码器接收一个50x14尺寸的张量,该张量包含了位置信息的噪声动作序列。这些嵌入与观察编码器的潜在表征以及时间步长(表示为one-hot向量)进行交叉注意力计算。

最终,解码器输出一个50x512的向量,通过线性层转换为50x14的尺寸,从而预测出接下来50个动作的噪声值。

基础模型包含2.17亿个可学习参数。而在小型模型中,则使用了1700万参数的编码器和3700万参数的解码器,共计约1.5亿个参数。

在训练过程中,研究团队基于JAX框架,在64个TPUv5e上并行运算,每批数据量设定为256,总共进行了200万次迭代训练。

他们使用了带有权重衰减的Adam优化算法,权重衰减系数为0.001,并在线性学习率预热5000步后保持1e-4的学习率不变。

研究团队对成果感到非常满意,认为这是朝着自主双手操作系统迈出的重要一步。

Aloha 2的研发是由DeepMind与斯坦福大学合作完成的,旨在提升原有Aloha系统的双臂远程操作能力。

相较于前代,Aloha 2在硬件上做出了多项改进,使其能够执行更为复杂和精细的操作。

斯坦福团队让机器人学会系鞋带啦,还开源了呢!

目前,研究团队已开放了Aloha 2的所有硬件设计文档,并提供了详尽的指南和模拟模型,以支持更多关于双臂操作的研究工作。

相关教程