见证历史!最"反人类"机器人诞生

如果机器人需要把视频传到云端,等AI分析完再做决策,可能需要几百毫秒甚至几秒——那时候工人可能已经被撞倒了。


机器人需要的是低于100毫秒的实时反应。

这只能靠本地AI来实现。

Gemini Robotics正是为此而生。它可以同时处理视觉、触觉、本体感知(机器人知道自己的手脚在哪里)等多种数据,并在毫秒级做出运动控制决策。

一个你可能没听说过的人

2024年11月,谷歌DeepMind悄悄做了一件事:挖来了波士顿动力的前首席技术官Aaron Saunders。



Aaron Saunders是波士顿动力技术的灵魂人物之一。

他在那里待了十几年,主导了Atlas早期版本的开发。

他离开波士顿动力,加入谷歌DeepMind的机器人团队——这个动作本身就说明了谷歌的野心。

他们不是在做一个“合作项目”,他们是在打造一个机器人帝国。

而这个帝国的飞轮效应,和特斯拉的自动驾驶如出一辙:

每一台部署在工厂里的Atlas机器人,都会产生真实世界的训练数据。

这些数据会被用来训练下一代Gemini Robotics模型。

新模型又会让机器人更聪明、更高效。更高效意味着更多客户愿意买,更多机器人被部署,产生更多数据……

这是一个数据飞轮,和特斯拉用百万辆车收集自动驾驶数据是同一个逻辑。

区别在于:谷歌做AI基础模型已经超过十年了,而特斯拉才做了五年。

为什么这比英伟达的新芯片更重要?

让我们回到CES2026的现场。

英伟达发布了Vera Rubin芯片,这是他们最新一代的AI芯片。

官方宣称:推理成本降低10倍,训练MoE模型需要的GPU数量减少4倍。预计2026年下半年量产。

这当然是很厉害的技术突破。但这是一个渐进式的改进——更快、更便宜、更省电。

而谷歌和波士顿动力的合作,是一个范式转换。

过去十年,AI的算力需求主要来自数据中心。


英伟达的生意,本质上是把GPU卖给云计算公司,让它们在机房里训练和运行大模型。

但机器人需要的不是数据中心里的AI。

机器人需要边缘AI——在机器人自己的芯片上运行的AI,能够实时处理传感器数据,做出即时决策。

这是完全不同的技术路线。

数据中心AI:拼的是算力规模,谁的GPU多谁厉害

边缘AI:拼的是效率和延迟,在有限的算力下做到足够聪明

数据中心AI:拼的是算力规模,谁的GPU多谁厉害

边缘AI:拼的是效率和延迟,在有限的算力下做到足够聪明

Gemini Robotics代表的是AI从云端走向终端的新时代。

更重要的是,这个合作完成了一个其他人几乎无法复制的组合:

软件可以被复制

[加西网正招聘多名全职sales 待遇优]
还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读
    全球首富放言:地球人人都有机器人 苹果将改造Siri 升级为AI聊天机器人
    中国猛推"金童玉女"AI交警机器人 网:半夜遇见吓死 Uber Eats机器人送外卖 遭火车撞毁"粉身碎骨"(视频)
    中产扎堆的高端小区,物业员工都改成机器人了 AI聊天机器人涉生成"未成年裸露像" 马斯克回应
    这款扫地机器人真长脚了 还会爬楼梯打扫 扫地机器人鼻祖破产了,国产大佬们也在冒冷汗
    CES2026揭示AI三场变革:家庭工业 X失控!马斯克旗下AI聊天机器人陷性暴露内容风波
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)

    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站