50万人在线围观!Atlas进厂打工 全程自主无遥控
且就在刚刚,英伟达新发布了HOVER,一个1.5M参数的神经网络控制器,用于人形机器人的全身运动和操作协调。
据负责英伟达具身智能实验室(GEAR)的Jim Fan介绍:
人类在行走、保持平衡以及操纵四肢到达期望位置时,需要大量的潜意识处理。我们在HOVER中捕捉了这种“潜意识”,这是一个单一模型,学习如何协调人形机器人的电机以支持运动和操纵。
我们在NVIDIA Isaac中训练了HOVER,这是一个GPU驱动的仿真套件,能够实现比现实时间快10000倍的物理模拟速度。
为了直观理解这个数字,机器人在虚拟“道场”中经历了一年的密集训练,但在一块GPU卡上仅花费了大约50分钟的真实时间。然后,神经网络无需微调即可零样本迁移到现实世界。
简单说,HOVER可以被“提示”执行各种指令,英伟达称之为“控制模式”。比如:
头部和手部姿势:可以通过XR设备如苹果的Vision Pro捕捉
全身姿势:通过动作捕捉或RGB相机
全身关节角度:外骨骼
根速度指令:操纵杆
概括而言,HOVER提供了一个统一接口,允许使用任何方便的输入设备来控制机器人。
它简化了收集全身遥控操作数据的方式,以便于训练;且作为一个上游的视觉-语言-动作模型,只要提供运动指令,HOVER就能将其转换为高频的低级电机信号。

对此,你怎么看?
[加西网正招聘多名全职sales 待遇优]
无评论不新闻,发表一下您的意见吧
据负责英伟达具身智能实验室(GEAR)的Jim Fan介绍:
人类在行走、保持平衡以及操纵四肢到达期望位置时,需要大量的潜意识处理。我们在HOVER中捕捉了这种“潜意识”,这是一个单一模型,学习如何协调人形机器人的电机以支持运动和操纵。
我们在NVIDIA Isaac中训练了HOVER,这是一个GPU驱动的仿真套件,能够实现比现实时间快10000倍的物理模拟速度。
为了直观理解这个数字,机器人在虚拟“道场”中经历了一年的密集训练,但在一块GPU卡上仅花费了大约50分钟的真实时间。然后,神经网络无需微调即可零样本迁移到现实世界。
简单说,HOVER可以被“提示”执行各种指令,英伟达称之为“控制模式”。比如:
头部和手部姿势:可以通过XR设备如苹果的Vision Pro捕捉
全身姿势:通过动作捕捉或RGB相机
全身关节角度:外骨骼
根速度指令:操纵杆
概括而言,HOVER提供了一个统一接口,允许使用任何方便的输入设备来控制机器人。
它简化了收集全身遥控操作数据的方式,以便于训练;且作为一个上游的视觉-语言-动作模型,只要提供运动指令,HOVER就能将其转换为高频的低级电机信号。

对此,你怎么看?
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
50万人在线围观!Atlas进厂打工 全程自主无遥控