Nvidia 推出 Blackwell Ultra GB300:2025年將帶來50%效能提升和288GB記憶體

BigGo Editorial Team
Nvidia 推出 Blackwell Ultra GB300:2025年將帶來50%效能提升和288GB記憶體

隨著 AI 計算競賽持續加速, Nvidia 推出了其下一代硬體,旨在為最苛刻的人工智慧工作負載提供動力。在其已經令人印象深刻的 Blackwell 架構的基礎上,該公司宣佈了重大升級,推出 Blackwell Ultra GB300,承諾提供顯著的效能改進和擴充套件的記憶體容量,以處理日益複雜的AI模型。

Nvidia Blackwell Ultra GB300 代表了 AI 計算技術的重大升級
Nvidia Blackwell Ultra GB300 代表了 AI 計算技術的重大升級

Blackwell Ultra GB300:AI計算的效能飛躍

Nvidia 新宣佈的 Blackwell Ultra GB300 代表了該公司AI計算平臺的重大進化。計劃於2025年下半年出貨的 GB300 保持了與原始 Blackwell 相同的每晶片20 petaflops的AI效能,但顯著增加了記憶體容量至288GB HBM3e記憶體,相比標準版本的192GB提升了50%。這一記憶體提升使其能夠處理更大的AI模型和更復雜的工作負載。GB300 NVL72機架規模解決方案將72個 Blackwell Ultra GPU與36個基於 Arm Neoverse 的 Grace CPU連線起來,作為單個大型GPU執行,能夠提供1.1 exaflops的FP4計算效能。

Nvidia Blackwell Ultra (GB300) 關鍵規格:

  • AI 效能:每晶片 20 拍(petaflops)(與標準 Blackwell 相同)
  • 記憶體:288GB HBM3e(比 192GB 增加 50%)
  • GB300 NVL72 機架效能:1.1 艾(exaflops)FP4 計算能力
  • GB300 NVL72 記憶體:20TB HBM 記憶體,40TB "快速記憶體"
  • NVLink 頻寬:130TB/秒
  • 網路:14.4 TB/秒
  • 釋出時間表:2025 年下半年

增強的AI推理能力

Blackwell Ultra 最顯著的進步之一是其加速AI推理任務的能力。根據 Nvidia 的說法,GB300 NVL72配置可以執行 DeepSeek-R1 671B 的互動式副本,並在僅僅10秒內提供答案,而前一代 H100 需要1.5分鐘。這一顯著改進源於其能夠以每秒1,000個token的速度處理,是 Nvidia 2022年晶片的10倍。這一增強使AI模型能夠探索不同的解決方案路徑,並將複雜請求分解為多個步驟,從而產生更高質量的響應。

效能對比:

  • Blackwell Ultra 與 H100 相比:大型語言模型推理速度快11倍
  • Blackwell Ultra 與 H100 相比:計算能力提升7倍
  • Blackwell Ultra 與 H100 相比:記憶體容量大4倍
  • Blackwell Ultra 令牌處理速度:每秒1,000個令牌(比2022年的晶片快10倍)
  • Rubin Ultra 機架與 Blackwell Ultra 機架相比:效能提升14倍

透過DGX Station擴充套件訪問

與以往高階AI硬體釋出不同的是, Nvidia 將在名為DGX Station的桌面格式中提供單個 Blackwell Ultra 晶片。這款強大的工作站配備了單個 GB300 Blackwell Ultra GPU、784GB統一系統記憶體和內建的800Gbps Nvidia 網路。包括 Asus、Dell、HP、Boxx、Lambda 和 Supermicro 在內的主要製造商將提供這種桌面系統的版本,將以前機架規模的AI計算能力帶到個人工作站。

未來路線圖:Vera Rubin及更遠

展望未來, Nvidia 還揭示了其即將推出的 Vera Rubin 架構,計劃於2026年下半年推出,將提供每晶片50 petaflops的FP4效能——是 Blackwell Ultra 效能的2.5倍。隨後將在2027年下半年推出 Rubin Ultra,有效地包含兩個連線在一起的 Rubin GPU,提供100 petaflops的FP4效能和接近四倍的記憶體容量,達到1TB。一個完整的 Rubin Ultra NVL576機架預計將提供15 exaflops的FP4推理和5 exaflops的FP8訓練,比今年的 Blackwell Ultra 機架效能提高了14倍。

Nvidia GPU 路線圖:

  • Blackwell Ultra (GB300):2025年下半年,288GB HBM3e
  • Vera Rubin:2026年下半年,50 petaflops FP4
  • Rubin Ultra:2027年下半年,100 petaflops FP4,1TB記憶體
  • Feynman:2028年

市場影響和行業需求

Nvidia 執行長黃仁勳在公告中強調,與去年這個時候相比,行業需要100倍的算力來跟上AI計算需求。這一宣告是在 Nvidia 透露已經出貨價值110億美元的 Blackwell 硬體的同時釋出的,僅前四大買家就在2025年迄今購買了180萬個 Blackwell 晶片。這些數字凸顯了AI計算需求的爆炸性增長和 Nvidia 在提供必要硬體方面的主導地位。

更遠的展望

在 Vera Rubin 之後, Nvidia 宣佈其2028年的架構將被命名為 Feynman,推測是以著名理論物理學家理查德·費曼命名。這一持續的路線圖展示了 Nvidia 致力於在可預見的未來保持其在AI計算硬體領域的領導地位,每一代都承諾顯著的效能改進,以滿足人工智慧工作負載快速增長的需求。