英伟达Rubin架构正式发布,AI计算性能与能效实现飞跃

1/06/2026,,美国时间2026年1月5日下午2点16分(太平洋标准时间),在消费电子展上,英伟达公司首席执行官Jensen Huang正式发布了该公司新的Rubin计算架构,他将其描述为人工智能硬件的最新成果。该新架构目前已投入生产,并预计在今年下半年进一步扩大产能。

Jensen Huang告诉与会者:“Vera Rubin旨在应对我们面临的一个根本性挑战:人工智能所需的计算量正在飞速增长。今天,我可以告诉大家,Vera Rubin已进入全面生产阶段。” Rubin架构最初于2024年公布,是英伟达 relentless 硬件开发周期的最新成果,这一周期已使英伟达转型为全球市值最高的公司。Rubin架构将取代Blackwell架构,而后者此前又取代了Hopper和Lovelace架构。

Rubin芯片已计划被几乎所有主要云服务提供商使用,其中包括英伟达与Anthropic、OpenAI和亚马逊网络服务的高调合作。Rubin系统也将用于HPE的Blue Lion超级计算机以及劳伦斯伯克利国家实验室即将建成的Doudna超级计算机。

该架构以天文学家Vera Florence Cooper Rubin的名字命名,由六个独立的芯片组成,设计为协同使用。Rubin GPU处于核心地位,但该架构也通过分别对Bluefield和NVLink系统的新改进,解决了存储和互连方面日益增长的瓶颈。该架构还包括一个全新的Vera CPU,专为智能体推理设计。

在解释新存储系统的优势时,英伟达人工智能基础设施解决方案高级总监Dion Harris指出了现代AI系统对缓存相关内存日益增长的需求。Harris在电话会议上对记者表示:“当你开始启用新型工作流,如智能体AI或长期任务时,这会给你的KV缓存带来很大压力和需求。”他指的是AI模型用于压缩输入内容的一种内存系统。“因此,我们引入了一个新的存储层级,它外部连接到计算设备,这使你能够更高效地扩展存储池。”

正如预期的那样,新架构在速度和能效方面也代表了显著的进步。根据英伟达的测试,在模型训练任务上,Rubin架构的运行速度将比前代Blackwell架构快3.5倍,在推理任务上快5倍,最高可达50 petaflops。新平台还将支持每瓦特高出8倍的推理计算能力。

Rubin新功能的发布正值人工智能基础设施建设的激烈竞争之际。在这场竞争中,AI实验室和云服务提供商都在争抢英伟达芯片以及为其供电所需的设施。在2025年10月的财报电话会议上,Jensen Huang估计,未来五年内将有3万亿至4万亿美元投入到AI基础设施上。

(文章来源:华尔街见闻)