Nvidia 向合作伙伴開放 NVLink Fusion,使其生態系統中的定製 CPU 和 AI 加速器成為可能

BigGo Editorial Team
Nvidia 向合作伙伴開放 NVLink Fusion,使其生態系統中的定製 CPU 和 AI 加速器成為可能

在傳統封閉生態系統方法的重大轉變中,Nvidia 在臺北 Computex 2025 上宣佈了 NVLink Fusion 計劃。該計劃允許合作伙伴將 Nvidia 專有的高速互連技術與非 Nvidia CPU 和定製 AI 加速器整合,這可能會重塑企業 AI 計算架構的格局。

執行長 Jen-Hsun Huang 在 Computex 2025 上介紹 NVLink Fusion 專案,展示創新的主幹技術
執行長 Jen-Hsun Huang 在 Computex 2025 上介紹 NVLink Fusion 專案,展示創新的主幹技術

打破 AI 基礎設施的壁壘

多年來,Nvidia 的 NVLink 技術一直是其在 AI 工作負載領域佔據主導地位的基石,與標準 PCIe 介面相比,它提供了更優越的頻寬和延遲效能。直到現在,這種專有互連技術在很大程度上僅限於 Nvidia 自己的晶片,除了與 IBM 的早期合作等有限例外。新的 NVLink Fusion 計劃標誌著一個戰略轉變,將這項技術向更廣泛的合作伙伴生態系統開放,包括用於 CPU 的 Qualcomm 和 Fujitsu,以及用於定製 AI 加速器的 Marvell 和 MediaTek。

重新定義規模的技術能力

NVLink Fusion 的技術規格令人印象深刻。根據 Nvidia CEO Jen-Hsun Huang 的說法,單個 NVLink 主幹可以以高達 130 TB/s 的速率傳輸資料,他聲稱這超過了整個網際網路的流量容量。雖然這種比較可能有爭議(一些來源表明網際網路的峰值傳輸速率超過 1,200 Tb/s),但該技術無疑為 AI 計算叢集提供了變革性的頻寬。該系統允許大規模擴充套件,透過單一主幹架構連線多達 72 個 GPU。

NVLink Fusion 關鍵合作伙伴:

  • CPU 合作伙伴: Qualcomm , Fujitsu
  • 矽/加速器合作伙伴: Marvell , MediaTek , Alchip
  • 互連合作夥伴: Astera Labs
  • 設計工具提供商: Cadence , Synopsys

NVLink 技術規格:

  • 單脊傳輸速率:高達 130 TB/s
  • 每脊最大 GPU 數量:72
  • 相比 PCIe 的頻寬優勢:高達 14 倍

擴充套件生態系統的戰略合作伙伴關係

NVLink Fusion 生態系統已經吸引了重要的合作伙伴。最近確認計劃進入伺服器 CPU 市場的 Qualcomm 現在可以確保與 Nvidia 主導的 AI 基礎設施的相容性。Fujitsu 將把這項技術與即將推出的 144 核 Monaka CPU 整合,這些 CPU 具有創新的 3D 堆疊核心覆蓋記憶體的特性。包括 Marvell、MediaTek 和 Alchip 在內的矽合作伙伴將開發與該系統相容的定製 AI 加速器,而 Astera Labs 則加入提供專業的互連元件。設計工具提供商 Cadence 和 Synopsys 透過必要的軟體和 IP 資源完善了生態系統。

一張展示第三方定製 CPU 和加速器如何整合到 Nvidia NVLink Fusion 架構中的圖表
一張展示第三方定製 CPU 和加速器如何整合到 Nvidia NVLink Fusion 架構中的圖表

透過晶片組架構實現

NVLink Fusion 的技術實現涉及將功能整合到位於計算封裝相鄰的晶片組中。這種方法允許合作伙伴維護其核心 CPU 或加速器設計,同時新增 NVLink 相容性。Nvidia 還發布了新的 Mission Control 軟體來統一操作和編排,簡化系統級驗證和工作負載管理,以加速這些複雜整合系統的上市時間。

實施方法:

  • 透過放置在計算包旁邊的晶片組進行整合
  • 相容機架規模架構
  • 由 Nvidia Mission Control 軟體提供編排支援

行業競爭和標準

值得注意的是,NVLink Fusion 合作伙伴名單中缺少 Nvidia 的主要競爭對手:AMD、Intel 和 Broadcom。這些公司反而加入了 Ultra Accelerator Link (UALink) 聯盟,該聯盟旨在建立一個開放的行業標準互連作為 Nvidia 專有技術的替代方案。這一併行發展突顯了在快速發展的 AI 硬體領域中專有生態系統和開放標準之間持續存在的緊張關係。

對企業 AI 部署的影響

NVLink 技術的開放代表了 Nvidia 擴大影響力的戰略舉措,同時滿足客戶對更靈活的 AI 基礎設施選項的需求。透過允許與非 Nvidia CPU 整合,該公司保持了其 GPU 的主導地位,同時適應那些可能因特定工作負載或主權要求而偏好替代 CPU 架構的組織。這種方法可能會擴大 Nvidia 的可定址市場,同時仍然利用其在 AI 加速方面的核心優勢。

未來展望

雖然 NVLink Fusion 主要針對資料中心和企業應用而非消費級計算,但其發展標誌著 AI 計算基礎設施可能如何演變的重要轉變。該技術為大規模異構計算提供了新的可能性,可能影響整個行業未來的系統架構方法。隨著 AI 工作負載在複雜性和規模上持續增長,有效連線多樣化計算資源的能力對於效能和能源效率變得越來越關鍵。