刚刚,OpenAI 重金押注的人形机器人初创 1X 终于揭秘了背后的「世界模型」—— 它能够根据真实数据,生成针对不同场景的中的行为预测!机器人领域的 ChatGPT 时刻,或许真的要来了。

月初,OpenAI 投下重注人形机器人初创 1X,终于放出了 NEO 官宣视频。它的首次现身,就惊艳到所有人。

不仅外观上,被戏称为「穿着西装的人」,而且在能力上,帮女主拎包、一起下厨,妥妥的一个通用家庭机器人。

它专为人类设计,去完成我们不愿意做的各种家庭任务,比如清洁、整理等等。

时隔半个月,1X 终于发布了 NEO 背后的「世界模型」。

有了这个虚拟世界模拟器,NEO 可以预测有用的物体交互。简而言之,它们完全可以生成,各种环境中的视频画面。

比如,叠一件 T 恤、拉开窗帘这类可变性物体,家里随处可见,但却很难将其放入虚拟世界模拟器中。

有趣的是,1X AI 副总裁 Eric Jang 称,他们在办公室专门放了一个全身镜,这样「模型」可以在镜子中,认出自己。NEO 现在有了自我反思的能力,不过,自我意识还没觉醒。

通过理解世界,并与之交互,1X「世界模型」可以生成高保真视频,并在神经网络中,重新规划、模拟和评估。

这也是世界模型,之于机器人的重要性。1X 创始人兼 CEO Bernt Bornich 表示,首次证明了人形机器人数据,正显著地推进 Scaling Law。

谷歌 DeepMind 机器人高级研究员 Ted Xiao 表示,1X 的「学习型」世界模型能够随着惊艳、物理交互数据不断改进。

- 世界模型很可能是在多智能体环境中,实现可重复和可扩展评估的唯一前进的方向。(参加自动驾驶中世界模型评估成功案例)

- 基于 2024 年 AI 技术,比基于去年的技术更容易构建世界模型。

- 一旦世界模型足以用于评估,它们很可能已经至少完成了 90% 的训练工作。

机器人「世界模型」来了!

直白讲,世界模型就是一种计算机程序。它能够想象出,世界如何随着智能体的行为而演变。

基于视频生成和自动驾驶汽车世界模型研究,1X 由此训练出自家的世界模型,作为 NEO 的虚拟模拟器。

从相同的起始图像序列出发,1X 世界模型可以根据不同机器人的动作,预测多种可能的未来场景。

左:去左侧的门;中:弹空气吉他;右:去右侧的门

那么,具身机器人的存在,最重要的是能够与物理世界交互。而在万千繁杂的世界中,如何有效交互就成为了难题。

世界模型,能够帮助 NEO 完成精准地交互,比如刚体、物体掉落的效果、不完全可见物体(杯子)、可变形物体(窗帘、衣物)、铰接物体(门、抽屉、椅子)。

它能够将餐盘放入沥水架子中。

它还可以拉开窗帘。

从抽屉拿出东西等等。

具身机器人难题 —— 评估

另外,世界模型解决了构建通用机器人时,一个非常实际但常被忽视的挑战:评估。

假设训练机器人执行 1000 个独特的任务,那么很难判断一个新模型是否真的在所有任务上,都比之前的模型有所改进。

更令人困扰的是,即便模型权重相同,但由于环境背景或环境光线的细微变化,性能可能在短短几天内下降。

研究人员训练了一个机器人叠 T 恤的模型,性能在 50 天内逐渐下降。

而且,如果环境不断持续变化,实验的可重复性便成为难题。

尤其是,在家庭、办公室这样的环境中,去评估多任务系统,这一问题就会变得更加棘手。

基于这些因素,使得在真实世界中,开启严谨的机器人研究变得异常困难。

当 scaling 数据、算力、模型规模时,AI 系统能力将如何扩展的问题,可以通过精准测量进行预测。

Scaling Law 已经成为 ChatGPT 这样的通用 AI 系统,性能提升的有力支撑。

因此,如果机器人领域想要迎来属于自己的「ChatGPT 时刻」,必须首先建立起它的「Scaling Law」。

从原生数据中学习,预测未来场景

基于物理模拟的引擎,诸如 Bullet、Mujoco、Isaac Sim、Drake,已成为快速测试机器人策略的合理方法。而且,这些模拟器可以重置、重复使用,进而研究人员能够仔细比较不同控制算法。

然而,这些模拟器主要是为「刚体动力学」设计的,并且需要大量人工数据收集。那么,如何让模拟机器人打开一盒咖啡滤纸、用刀切水果、拧开一罐果酱,或与人类、其他 AI 智能体互动呢?

家庭环境中,常见的日常物品、宠物很难模拟,训练机器人极度缺少真实世界的用例。因此,在有限数量任务中,对机器人进行小规模真实 / 模拟评估,并不能准确预测其在真实世界中的表现。

也就是说,这样训练出的机器人,很难具备真实世界「通用泛化」能力。

1X 研究团队采取了全新的方法,来评估通过机器人:

直接从原生传感器数据中学习模拟,并利用它在数百万情境中,评估机器人策略。

这种「世界模型」方法的优势在于,可以一键获得真实世界所有复杂数据,而无需手动创建资产。

过去一年里,1X 团队收集了超 5000 小时 EVE 人形机器人数据。

这些数据包括,机器人在家庭和办公室环境中,执行各种移动操作任务,以及与人互动的场景。

然后,他们将视频和动作数据结合,训出一个世界模型。

这个模型非常强大,不仅能够根据所观察到的情况,执行动作,还能生成视频,预测未来的场景画面。

动作可控,「脑补」弹空气吉他

1X 世界模型能够根据不同的动作指令,生成多样化的输出。

如下图所示,展示了基于四种不同动作序列,生成的各种结果。这些动作序列,都是从相同的初始画面帧开始。

与之前一样,这些所展示的示例,都不包含在训练数据中。

世界模型的主要价值在于,能够模拟物体之间的交互。

在接下来的模拟生成中,研究人员为模型提供相同的初始场景,并设置了三组不同的抓取盒子的动作。

在每个模拟场景中,被抓取的盒子,会随机械手运动而被提起和移动,而其他未被抓取盒子纹丝不动,保持原位。

即便没有给出具体的动作指令,世界模型也能生成看起来合情合理的视频。

比如说,它能自己在前行时,避开行人和障碍物,这种行为是很符合常理的。

模拟叠 T 恤,长期任务也在行

此外,1X 还可以生成长视频。

正如开头所展示的例子,NEO 模拟了一个完整的 T 恤折叠演示。

值得一提的是,T 恤等可变形物体,往往在「刚体模拟器」中难以实现。

当前存在的问题

不过,1X 的世界模型同样存在一些问题。

物体一致性

比如,模型在与物体交互的过程中,可能无法保持物体的形状的和颜色一致性。

尤其是当物体被遮挡,或者以不理想角度呈现时,世界模型在生成视频过程中,物体外观可能会出现变形。

有时,物体甚至完全消失不见。

比如,在执行拿起红色小球并放置在盘子上这一动作时,球在过程中莫名其妙地就消失了。

物理学定律

而且,它也不懂物理世界中的基本定律。

有时候,NEO 能够对物理属性有自然的理解,比如松开机械手之后,勺子会掉落到桌子上。

但在很多情况下,生成的结果并没有遵循物理法则,比如下面这个,盘子就直接悬在了空中。

这说明,世界模型并不理解所有物体,都受到竖直向下的重力作用。

自我认知

另外,研究人员让 AI 机器人 EVE 走到镜子前,观察其是否会生成与镜子中的相对应的行为。

没想到,它在抬起另一只手臂时,镜子中没有同步。

可见,现在 1X 模型没有自我意识的表现。

参考资料:

  • https://x.com/ericjang11/status/1836096888178987455

  • https://x.com/1x_tech/status/1836094175630200978

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,靠谱客所有文章均包含本声明。

点赞(16)

评论列表共有 0 条评论

立即
投稿
返回
顶部