Nvidia 即將以其即將推出的 Blackwell 平臺革新 AI 領域,展示 GPU 技術和 AI 運算的突破性進展。隨著公司準備在 Hot Chips 2024 上發表演說,他們提供了資料中心 AI 處理未來的預覽。
![]() |
---|
在最先進的伺服器機架中展示的 NVIDIA Blackwell 技術 |
Blackwell:不僅僅是 GPU
Blackwell 代表了一個全面的 AI 專注硬體生態系統:
- Blackwell GPU:核心部分,在 TSMC 的 4NP 製程上擁有 2080 億個電晶體
- Grace CPU: Nvidia 的客製化 ARM 處理器
- NVLink Switch 晶片:實現超高速 GPU 互連
- BlueField-3:先進的資料處理單元
- ConnectX-7 和 ConnectX-8:下一代網路介面卡
- Spectrum-4 和 Quantum-3:尖端網路交換機
前所未有的效能和效率
Blackwell GPU 擁有令人印象深刻的規格:
- 20 Peta FLOPS 的 FP4 AI 效能
- 使用 HBM3e 記憶體實現 8 TB/s 的記憶體頻寬
- 1.8 TB/s 雙向 NVLink 頻寬
Nvidia 創新的方法是將兩個光罩限制的 GPU 結合成單一封裝,實現最佳的通訊密度、延遲和能源效率。
![]() |
---|
一份深入比較 Nvidia 最新平臺的圖表,包括 Blackwell 平臺卓越效能的具體規格 |
NVLink:多 GPU 效能的秘密武器
升級後的 NVLink Switch 將織布頻寬翻倍至 1.8 TB/s,使 GB200 NVL72 機架中最多 72 個 GPU 之間能夠無縫通訊。這一進步對於解決日益複雜的 AI 模型(如 Meta 的 4050 億引數 Llama-3.1)至關重要。
開創性的 FP4 精度
Nvidia 首次展示了使用 FP4 計算進行 AI 影像生成,展示了他們的 Quasar 量化系統的潛力。這一突破在保持與 FP16 模型相當的影像質量的同時,實現了顯著的頻寬節省。
![]() |
---|
比較展示 Nvidia FP4 精確度在 AI 影像創作中進步的 AI 生成影像 |
液體冷卻創新
Nvidia 正在探索溫水直接到晶片的冷卻解決方案,承諾可將資料中心設施電力成本降低高達 28%。這種方法不僅提高了冷卻效率,還延長了伺服器壽命,並為熱能再利用開闢了可能性。
AI 構建 AI
也許最有趣的是,Nvidia 正在利用 AI 來最佳化晶片設計過程。生成式 AI 被用來建立 Verilog 程式碼,可能加速未來 GPU 架構的開發。
隨著 Nvidia 準備在今年晚些時候向客戶發貨 Blackwell,科技界熱切期待這些創新對 AI 領域的影響。隨著 Blackwell Ultra、Rubin 和 Rubin Ultra 等後續產品的推出,Nvidia 似乎有望在未來幾年保持其在 AI 運算領域的領導地位。