304永利集团官网入口-没人比英伟达,更懂「下一代 AI 计算」
首页财产ai正文 没人比英伟达,更懂「下一代 AI 计较」 2026年GTC揭幕,黄仁勋先容CUDA生态结果,推出Vera Rubin等产物和NemoClaw方案,还有展示物理AI结构,多家车企插手主动驾驶互助。 2026-03-17 14:24 ·极客公园徐珊 AI投资人解读· 英伟达于2026年GTC发布会上推出Vera Rubin,算力达3.6艾次浮点运算,每一兆瓦算力吞吐量晋升35倍,还有推出Vera CPU和企业级OpenClaw参考方案NemoClaw。 · 行业竞争激烈,技能更新快,可能面对政策羁系危害。 总结:英伟达依附立异产物揭示强盛实力,具备较高投资价值。但需存眷行业竞争与政策危害,建议联合市场动态与企业成长计谋综合评估。内容由AI天生,仅供参考
「我确信咱们这是一场科技盛宴。今天于座的每一一名,都代表着英伟达的生态。」于 2026 年 GTC 的揭幕现场,阿谁永远穿戴玄色皮茄克的汉子——黄仁勋,一上台就带着他招牌式的自傲。

与往年开场差别,本年是 CUDA 生态 20 周年。一开场,老黄就讲述英伟达怎样从 Geforce 到光芒追踪,再到 AI 智能体,一步步打造自家的护城河。「如今 CUDA 生态已经经形成为了数据飞轮。」于他的讲述下,咱们可以或许看由他亲手创下的 CUDA 生态已经经成绩了一个贸易帝国。
这次发布会上,老黄带来了专为为智能体 AI 设计的 Vera Rubin,算力到达 3.6 艾次浮点运算。联合最新推出的机架,最新的每一兆瓦算力吞吐量晋升 35 倍。此外,他还有推出了一款专为极高的单线程机能而设计的 CPU——Vera CPU。
更主要的是,英伟达还有推出了企业级 OpenClaw 参考方案,NemoClaw。你可以直接下载、利用、二次开发,而且可以把它对于接全世界所有 SaaS 公司。相较之下,本年英伟达于主题演讲上对于呆板人、主动驾驶、量子计较的器重度都有所削弱。
看完这场演讲,你会有种预见:咱们正站于全新计较平台厘革的出发点。就像上一轮厘革中降生的google及亚马逊,这一轮 AI 年夜爆炸中,一修正变世界的「AI 巨头」正于孕育。
老黄于每个环节上手里那份长到展示不完的公司名单,就是他的底气。他不仅是于界说计较,他是于使用 AI 这个支点,强行把全世界的金融、医疗、制造、零售全数拽入一个由 GPU 统治的「AI 时代」。
再一次地,英伟达看到了 AI 的将来,此刻,他正拽着全球一路跳进去。
0一、Vera Rubin:
7 款冲破性芯片、5 个机架级体系、1 台超等计较机
「短短十年间,算力实现了 4000 万倍的奔腾。」英伟达回首了已往 10 年间算力跟着三年夜扩大定律迅猛增加,从预练习、微调、推理周全发力,再到如今的通用智能体系,计较需求仍于呈指数级增加。
来到 AI Agent 时代,英伟达带来了 Vera Rubin。它为智能体 AI 的全生命周期而设计,从芯片层级从头界说 AI 智能体所需要的 CPU、存储、收集与安全。
参数信息上,Vera Rubin 搭载 NVLink 6,整机算力到达 3.6 EFLOPS,将会成为驱动智能体 AI 时代的要害引擎。不仅云云,与上一代比拟,Vera Rubin 体系实现了 100% 液冷,所有传统线缆全数消散。
总体配置上,今朝,Vera CPU 机架是专为编排与通用事情负载设计。而 STX 机架基在 BlueField‑4 打造的 AI 原保存储。同时借助 Spectrum‑6 共封装光学技能实现横向扩大,年夜幅晋升能效与靠得住性。

而 Groq 3 LPX 机架是与 Vera Rubin 深度互联,Groq LPU 集成为了230MB 的片上 SRAM,为 Vera Rubin 再添一把火,鞭策总体的运算速率再进级。
整套体系合于一路,每一兆瓦算力吞吐量晋升 35 倍。毫无疑难,Vera Rubin 平台,用七颗芯片、五年夜机架级计较机,打造出一台面向通用智能的革命性 AI 超等计较机。
讲述产物设计思绪时,黄仁勋认为年夜语言模子会变患上愈来愈年夜,天生的 tokens 数目会愈来愈多、速率愈来愈快,如许它才能实现更快的思索。但与此同时,它也必需频仍拜候内存,对于内存的压力会变患上极年夜,包括 KV 缓存、布局化数据 QDF、非布局化数据 QVS 等,是以它会对于存储体系提出极高、极高的要求。以是,AI 时代的存储体系需要被从头改写。
到了 Agentic 时代,AI 还有会利用各类东西,而且对于网页阅读器、虚拟 PC 的东西速率要求很高。是以,这些 PC、这些计较节点,都必需做到更快。英伟达打造了一款全新的 CPUVera CPU,专为极高的单线程机能而设计,具有高数据输出能力、强数据处置惩罚效率,同时拥有较强的能效体现。据先容,它是全世界*一款采用 LPDFR5X 的数据中央 CPU,单线程机能与每一瓦机能均拉满性价比。

Vera Rubin 全家桶系列|来历:英伟达
「咱们打造这款 CPU,就是为了与整套机架协同,支撑智能体处置惩罚使命。这款产物一样已经投入量产。咱们从未想过会零丁发卖 CPU,但此刻咱们的自力 CPU 销量很是可不雅。这无疑将成为咱们数十亿美元级的营业。我对于咱们的 CPU 架构团队感应很是满足。」黄仁勋说道。
老黄还有现场展示了 Rubin Ultra。与平凡 Rubin 程度插入的方式差别,Rubin Ultra 采用全新的 Groq 机架,垂直插入 Groq 机架。「这个 Groq 机架很是重,我必定举不起来,也就不试了。」

Groq 机架 |来历:英伟达
于中板的反面,英伟达再也不利用传统铜缆。他认为,铜缆于传输间隔上存于限定,而是用这套全新体系毗连 144 颗 GPU。这就是新一代 NVLink。它一样垂直安装,接入反面的中板。前端是计较,后端是 NVLink 互换机,合为一台巨型计较机。
回到末了,新的芯片架构毕竟能带来几多本色性的收益?黄仁勋提到,芯片到末了城市实在会影响将来 tokens 的市场定位与订价。
「tokens 是全新的年夜宗商品。及所有商品同样,一旦跨过拐点、走向成熟,就会分层分级。」他对于将来的 tokens 做了几类分级:
高吞吐量、低速率的版本,可用在免费套餐;
中端套餐,模子更年夜,速率更快,输入上下文长度更长;
将来甚至会呈现高端旗舰套餐,撑持极高的 tokens 天生速率,用在要害路径使命或者超长研究场景。到那时,每一百万 tokens/150 美元也彻底合理。
「模子越年夜,智能水平越高;输入 tokens 上下文越长,成果越精准相干;速率越快,思索与迭代越充实,AI 就越智慧。模子越智能,每一上一个台阶,价格就能响应晋升。好比到 45 美元一档。」他感觉将来的 tokens 耗损将会转变一切。
于他的假想中,假如假定一位研究员天天利用 5000 万 tokens,按每一百万 150 美元计较,对于一个研究团队而言,这实在彻底可以接管。「这就是 AI 的将来。」站于客户角度,他假定将所有算力资源从头分配:25% 的功耗用在免费套餐,25% 用在中端套餐,25% 用在高端套餐,25% 用在尊享套餐。假如其数据中央总功耗只有 1 吉瓦,以是客户可以决议怎样分配这些资源,免费套餐帮吸引更多用户,高端套餐则办事最有价值的客户。这些组合于一路,终极决议了你的营收。
于这个简朴的模子假定下,他说到,采用 Blackwell 平台,可以或许 比 Hopper 实现 5 倍的营收增加。而 Vera Rubin 能比 Blackwell 带来 5 倍营收晋升。

Vera Rubin |来历:英伟达
Groq 的计较体系是一款确定性数据流处置惩罚器,采用静态编译与编译器调理架构。也就是说,所有时序摆设,像是数据什么时候传输、计较什么时候履行、数据怎样同步达到,都将会由编译器提早静态计划完成,经由过程软件调理,没有动态调理。这款架构配备了年夜容量 HBM,专为推理这单一事情负载而生。
今朝,Groq 3 LPU 已经经进入量产阶段,估计本年下半年、也就是第三季度摆布最先出货,产物为 Groq LP。
至在 Vera Rubin,虽然以前 Grace Blackwell 的初期样品调试很是繁杂,需要模仿 72 路互联,但 Vera Rubin 的样品进已经经完成为了测试,*套 Vera Rubin 机架也已经经于微软 Azure 上线并正常运行。
现阶段,英伟达正于全速出产 Vera Rubin 机架及 GB300 机架,全线满负荷量产,此刻已经经搭建起每一周可出产数千套体系的供给链。
英伟达的下一款芯片平台的架构名称为Feynman 架构。
不仅云云,Groq 及 Vera Rubin,都将会是英伟达 AI 工场的焦点构成配件。
Groq 一颗芯片仅 500MB 存储;而 RubinGPU 一颗芯片的显存将会到达 288GBHBM4。
一个万亿参数的模子,所有参数都必需存放于 Groq 芯片中,将需要年夜量的芯片包管其存储空间。但若把它放于 Vera Rubin 阁下,就能于 Vera Rubin 上存放 AIGC 体系所需的海量 KV 缓存。
是以,英伟达重构了 AI 推理的资源配置——把最合适的事情,交给最合适的芯片。
于老黄的假想里,像是模子内的解码环节的 Attention 部门,需要年夜量计较,可以放于 Vera Rubin 上完成;解码中的 tokens 天生部门,可以放于 Groq 芯片上完成。
经由过程非凡模式的以太网慎密耦合后,如许两款芯片组会可以或许让 Alpamayo 时延降低近一半。借助英伟达 Dynamo 软件的调理与整合,Vera Rubin 架构共同 Groq LPU,让高层推理机能晋升了 35 倍。
0二、NemoClaw:AIOS 的贸易参考
「OpenClaw 是人类汗青上*的开源项目,而且仅用几周时间就告竣了这一成绩。它的成长速率,甚至逾越了昔时的 Linux。」黄仁勋提到,OpenClaw,可以用任何模态及它交互,它都能听懂;它可以给你发动静、发短信、发邮件。它具有完备的 IO 能力。
「OpenClaw 开源了智能体计较机的操作体系。这就像昔时 Windows 让咱们患上以创造小我私家电脑同样,如今 OpenClaw 让咱们可以或许创造小我私家智能体。」
黄仁勋认为对于每一一家公司、每一一家软件公司、每一一家科技公司的 CEO 而言,当下最要害的问题是:你的 OpenClaw 战略是甚么?
「就像咱们都需要 Linux 战略,都需要 HTTP、HTML 战略——那开启了互联网时代;都需要 Kubernetes 战略——那成绩了挪动云时代。今天,世界上每一一家公司,都必需拥有 OpenClaw 战略,也就是智能系统统战略。这就是新一代计较机。」
他认为将来每一个企业的事情方式及人的事情方式甚至是薪酬付出方式也会发生变化。
于 OpenClaw 以前,企业 IT 的模式是「数据中央」,由于那些年夜房间、年夜楼里存放的是数据、人们的文件、企业的布局化数据。数据流经带东西的软件、记载体系、各类固化于 IT 里的事情流,终极酿成供人类、数字事情者利用的东西。旧的 IT 财产下,软件公司打造东西、存储文件,还有有 IT 参谋帮忙企业利用、集成东西。

将来的企业布局|来历:英伟达
但于 OpenClaw 时代、于智能体时代以后,每一一家 IT 公司、每一一家企业、每一一家SaaS公司,都将酿成一家「智能体办事公司」(Agent-as-a-Service, AAS company)。
但间隔这一步,这里有一个要害问题尚没有解决——企业收集中的智能系统统,可以拜候敏感信息、履行代码,还有能对于外通讯。它彻底可能获取员工信息、供给链数据、财政秘要等敏感内容,并把这些数据别传,安全危害存疑。
随后,英伟达推出了本身的 NVIDIA OpenClaw 参考方案——Open NemoClaw。

NemoClaw|来历:英伟达
它内置了一整套智能体 AI 东西集,此中焦点技能之一就是 OpenShell 的模块,此刻已经经完备集成到 OpenClaw 中。用户可以直接下载、利用、二次开发,而且可以把它对于接全世界所有 SaaS 公司的计谋引擎。
同时,用户可以对于接这些计谋引擎,履行安全计谋、设置收集护栏、运行隐私路由而掩护企业内部情况,让智能体于安全可控的条件下运行。Open NemoClaw 还有撑持用户构建自界说智能体,利用本身的专属模子。

NemoClaw 搭载英伟达模子后于类 OpenClaw 产物的排行榜|来历:英伟达
他感觉将来硅谷的雇用手腕之一将会是:「这份事情附带几多 tokens 额度?」
到时辰,员工的基础年薪多是几十万美元,而企业会于此基础上,再分外给他们一半薪酬以 tokens 情势发放,让他们的出产力放年夜 10 倍。
将来的每一一家软件公司,城市是智能体驱动的。它们会成为 tokens 牌出产者、tokens 的利用者。同时也是面向所有客户的 tokens 提供商。
0三、物理 AI :
比亚迪、吉祥插手
英伟达 Robotaxi 伴侣圈,
迪士尼雪宝压轴登场
谈完了运用层的变化,黄仁勋将话题转到物理 AI 标的目的,并联袂其物理 AI 家族表态。

英伟达物理 AI 结构「全家福」|来历:英伟达
今朝英伟达有三类计较机用在练习的计较机、用在合成数据天生与仿真的计较机,及呆板人本体内部的车载计较机。
英伟达还有公布一多量全新互助伙伴。「主动驾驶的 ChatGPT 时刻已经经到来。如今咱们确信,汽车彻底可以实现乐成的全主动驾驶。」老黄说道。
英伟达公布 NVIDIA 主动驾驶出租车(Robotaxi)平台再添四家全新互助伙伴:比亚迪、现代、日产、吉祥。这些厂商每一年合计出产 1800 万辆汽车。加之此前已经插手的疾驰、丰田、通用等伙伴,将来撑持 Robotaxi 的汽车数目将极其可不雅。英伟达还有公布将于多个都会,把这些撑持 Robotaxi 的车辆接入互助伙伴的运营收集。
将来,传统的无线电塔,将酿成 NVIDIA Aerial AI RIM 智能基站。它会成为一座「Robotaxi 无线电塔」。到时辰,企业可以或许理解交通状态,智能调解波束赋形,于*化保真度的同时,尽可能节省能源。
他还有提到,借助英伟达 Alpamayo,车辆此刻具有推理能力,能于各类场景下安全、智能地行驶。咱们可让车辆注释它的决议计划思索历程,并直接听从语音指令。
好比咱们对于车说:「hey Mercedes,咱们能开快一点吗?」车辆可以回覆:「固然,我这就提速。」经由过程传统仿真与神经仿本相联合,它们天生海量合成数据,并年夜范围练习计谋模子。
这一次,NVIDIA 还有打造了多款开源东西:Isaac Lab:用在于仿真中练习及评估呆板人 Newton:可扩大、GPU 加快的微分物理仿真引擎 Cosmos 世界模子:用在神经仿真 GR00T 开源呆板人基础模子:用在呆板人推理与动作天生。
于主题演讲的末端,迪士尼《冰雪奇缘》的雪宝呆板人登上舞台,今朝迪士尼的呆板人正于用 NVIDIA 仿真练习。「我小我私家最期待的呆板人之一就是来自迪士尼的呆板人。」黄仁勋说道。

黄仁勋及雪宝挥手离别 GTC|来历:英伟达
本年,黄仁勋于 GTC 上抛出的,再也不是标的目的与标语,而是一整套对于当下的 AI 创业者而言真正可以或许上手即用的东西。
从 AI 芯片、OpenClaw 智能体系统,到物理 AI、呆板人、主动驾驶范围化落地。他把将来几年 AI 财产必需走的路、最难解决的问题、最痛的瓶颈,逐一给出了谜底。每一一家企业、每个开发者,都能于这套新框架里找到本身的位置。
从本年最先,AI 再也不是堆参数、拼算力、讲故事,而是走向企业、走向实处。这也许不是某一家公司的胜利,而是 AI 的飞轮最先真正运转起来。
【本文由投资界互助伙伴极客公园授权发布,本平台仅提供信息存储办事。】若有任何疑难,请接洽(editor@zero2ipo.com.cn)投资界处置惩罚。
-304永利集团官网入口




