3B模型打通机器人任督二脉!冲咖啡叠衣服都能干,7种形态适配,OpenAI也投了
已获7000万美元融资,创始人全是大牛
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
只要一个3B参数的大模型,就能控制机器人,帮你搞定各种家务。
叠衣服冲咖啡都能轻松拿捏,而且全都是由模型自主控制,不需要遥控。
关键是,这还是个通用型的机器人控制模型,不同种类的机器人都能“通吃”。
这些操作背后的大模型叫做π0,参数量只有3B,来自今年刚成立的初创公司Physical Intelligence(简称π)。
创立之后不久,π公司就获得了7000万美元(约5亿人民币)的A轮融资,投资者中还包括OpenAI。
而公司的目标,就是开发通用的机器人控制模型,现在的π0,就是其首项成果。
有网友直言,π0控制的机器人,是他见过最接近真正的通用机器人的。
关键是,参数量只有3B,算力消耗非常小,如果和同规模的模型性能特征相近,廉价显卡就能带动。
Hugging Face的机器人团队领军人物、前特斯拉Optimus团队成员Remi Cadene也说,如果π0能开源的话,人们自己在家就能体验了。
7种机器人都能控制
在官宣当中,π团队展示了叠衣服、整理桌子、鸡蛋装盒等等复杂(对机器人来说)任务。
这些任务不仅需要长时间、多阶段的连续决策,还要求动作同时具备高频率与精细程度。
许多任务更是涉及了复杂的接触动力学,如衣物的变形塑性、纸箱的刚性、鸡蛋的脆弱性等。
机器人需要精准建模并控制这些动力学过程,甚至满足更多物理约束,如保持物体平衡、避免碰撞。
但总之最后π团队还是成功了,π0不仅能控制机器人,还能控制不同的机器人,出色地完成这些任务。
比如让双臂可移动机器人收拾洗好的衣服。
只见机器人站到洗衣机前,打开了舱门,然后将洗好的衣服取出放入筐内。
然后又来到一张桌子旁,将筐里的衣服取出、铺开然后叠好。
还有让另一种双臂机器人把盘子里的鸡蛋装入盒子中,之后再把盒子盖好。
甚至有条不紊地折叠好一个展开的纸盒。
而且知道利用工具,比如这个机器人,用叉子把剩余的食物装进了打包盒。
到了收拾桌子的任务当中,负责执行的机器人又变成了单臂。
它可以把要保留的物品放入收纳筐,将不需要的垃圾丢进垃圾桶。
并且在物品和垃圾混合放置时也能准确操作。
当然从数据上看,π0在零样本泛化能力、语言控制响应、新任务学习、多阶段任务等维度上也表现优异。
零样本泛化能力上,π0在所有任务上都显著超过了baseline模型,即使未加入预训练视觉模型的π0-small也比这些baseline表现优异。
指令处理上,π0在3个语言指令任务上,经人类指导取得了最好的自主表现,高层策略指导也有提升。
在与预训练数据差异较大的新任务上,π0在大多数任务上性能最好,尤其在微调数据量较小时优势明显。
这意味着,不需要专门训练,π0就能让机器人自动完成很多开放性任务。
最后在一系列极具挑战的复杂任务上,π团队通过结合微调和语言指令对π0进行了测试。
结果π0能够完成折衣服、整理餐桌、组装纸箱、装鸡蛋等长达5-20分钟的任务,取得了50%以上的平均得分。
效率方面,官方技术报告中公布了π0在4090上的运行时间。
一次完整的前向传播也需要73-86毫秒,这对实时性要求高的场景可能还有挑战。
但考虑到流匹配过程能生成50个动作步,平均下来每个动作步的生成时间也并不高。这
所以从整体上看,π0的计算效率,或者说实时性,还是比较高的,当然离网友们期待的家家可用,可能还需要再提速一些。
那么,π团队在π0模型上,都运用了什么样的技术呢?
视觉大模型魔改而成
π0是基于视觉模型PaLM-ViT改造而成,在其基础上增加了一个投影层、一个多层感知机,以及一个较小的动作专家模块。
其中投影层用于处理机器人状态和动作的输入输出,多层感知机用于整合流匹配(flow matching)时间步信息,专家模块则用单独的权重处理机器人状态和动作tokens。
模型的输入包括图像、语言指令、机器人本体感受状态和噪声动作块。
图像和语言tokens送入VLM主干网络,状态和动作tokens送入动作专家模块。
最终,模型会输出动作块的向量场表示。
对于连续动作分布的建模,π0模型使用了条件流匹配(conditional flow matching)方法。
流匹配的工作方式和扩散模型有些类似,核心思想都是通过逐步添加噪声来简化数据分布,然后逐步去噪得到隐私数据——
训练时,随机对动作施加高斯噪声,并训练模型输出去噪向量场;推理时,从高斯噪声开始,通过数值积分向量场生成动作序列。
不同之处在于,流匹配直接对数据和噪声分布之间的映射场(vector field)进行建模,训练目标是匹配这一映射场,而扩散模型通常学习的是每个去噪步骤的条件分布。
流匹配方法能够高精度地建模复杂多峰分布,非常适合高频灵巧操作任务。
训练数据方面,π0是在迄今为止最大的机器人交互数据集上进行训练的。
预训练阶段的数据集中包括OXE、DROID、Bridge等开源数据,以及团队在8个不同的机器人平台中收集的大量灵巧类任务数据等内容。
团队自己收集的数据集括68个任务,涉及单臂任务106M步、双臂任务797M步,数据采用了50Hz高频控制。
开源数据和团队自己收集的数据,比例大约是1:9。
另外为了让π0掌握特定复杂技能,团队在20多个下游任务上进行了微调。
根据任务的难度和相似度,微调数据量从5小时到100多小时不等,一些任务还结合了高层语言策略模块来分解复杂目标。
用团队成员切尔西·芬(Chelsea Finn)的话说,预训练是为了让模型能够应对各种场景,后训练(微调)则是让π0掌握更多的策略。
“不造机器人”的机器人公司
Physical Intelligence公司成立于今年,已经获得总计7000万美元的A轮融资。
融资由红杉资本领先,此外还有包括OpenAI在内的6家公司参投。
公司还有个简称叫做π,因为Physical Intelligence的缩写pi,刚好是π的拉丁转写。
虽然是家机器人公司,但π并不生产机器人硬件,只负责训练模型,目标是构建能够通用的机器人模型。
对此,π的联合创始人兼CEO卡罗尔·豪斯曼(Karol Hausman)在公开场合解释:
我们的目标是通过一个通用模型将AI带入物理世界,这个模型可以为任何机器人或任何物理设备提供动力,基本上适用于任何应用。
对于此事的意义,公司另一名联创谢尔盖·莱文(Sergey Levine)在推特上举例说明,π创业要做的事之于机器人控制,其重要程度就像NLP之于大模型。
π的创始人背景也都十分亮眼,都是机器人和AI专家,在机器人、工程和许多其他领域拥有深厚经验。
CEO卡罗尔·豪斯曼(Karol Hausman),此前曾是谷歌大脑机器人操作研究主管,2021年至今兼任斯坦福客座教授。
联合创始人谢尔盖·莱文(Sergey Levine),UC伯克利电气工程和计算机科学系副教授,谷歌学术被引用量为超过12.7万。
而且还是不折不扣的顶会狂魔,据不完全统计,莱文2018年在ML和NLP顶会上共发表22篇论文,与另外两人并列全球第一……
莱文在UC伯克利还是个网红教授,此前推出的深度学习课程Deep Reinforcement Learning(深度强化学习,课程代号CS 285)非常受欢迎。
同时,在斯坦福家务机器人ALOHA的相关论文中,莱文的名字也经常出现。
联创切尔西·芬(Chelsea Finn),斯坦福计算机科学和电气工程系助理教授,谷歌学术论文引用数超4.7万。
在ALOHA团队的论文当中,芬经常以通讯作者的身份出现。
此外,还有谷歌大脑机器人团队前科学家布赖恩·伊希特(Brian Ichter)、丰田研究院ML研究团队的研究科学家苏拉吉·奈尔(Suraj Nair)等。
可以说阵容是非常豪华了。
拥有超级团队的π,也仍在继续招兵买马,在研究科学家、ML工程师、数据工程师等多个岗位招聘员工和实习生。
技术报告:
https://www.physicalintelligence.company/download/pi0.pdf
参考链接:
[1]https://www.physicalintelligence.company/blog/pi0
[2]https://www.reddit.com/r/singularity/comments/1ggm6za/a_3b_pretrained_generalist_model_trained_on_8/
[3]https://twitter.com/chelseabfinn/status/1852043351366996449
- Qwen版o1发布即开源!32B参数比肩OpenAI o1-mini,一手实测在此2024-11-28
- 将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率2024-11-27
- 1行代码改进大模型训练,Llama训练速度升至1.47倍,华人团队出品2024-11-27
- 空间智能新进展:教机器人组装宜家家具,首次实现操作步骤与真实视频对齐 | NeurIPS2024-11-26