Cerebras Systems 最近完成了11億美元的 G 輪融資,估值達到81億美元。儘管該公司宣稱其晶圓級引擎是目前最快的AI推理解決方案,但科技社群正在質疑這樣的經濟效益是否真的能證明如此龐大的估值合理。
Cerebras 融資詳情:
- G 輪融資:11 億美元
- 融資後估值:81 億美元
- 主要投資者: Fidelity Management & Research Company 、 Atreides Management
- 其他參與者: Tiger Global 、 Valor Equity Partners 、 1789 Capital
速度與成本權衡成為討論焦點
社群主要關注的問題集中在 Cerebras 使用 SRAM 記憶體來實現超快推理速度的做法。用戶回報相較於傳統基於 GPU 的解決方案,體驗到顯著更快的回應時間,有些人甚至發現這種速度如此吸引人,即使需要多次迭代來完成任務也更偏好使用它。然而,這種效能伴隨著高昂的價格。業界觀察家估計,在最大上下文大小下運行像 Qwen 3 這樣的大型模型可能需要價值超過1億美元的 Cerebras 晶片,相比之下同等的 Nvidia Blackwell 硬體只需100萬美元,儘管速度較慢。
SRAM(靜態隨機存取記憶體)比其他記憶體類型更快但更昂貴,而上下文大小是指AI模型一次可以處理多少文字。
效能比較:
- Cerebras 推理速度:比 Nvidia GPU 快 20 倍
- Wafer Scale Engine 3 (WSE-3):比最大的 GPU 大 56 倍
- 預估晶片成本:每片 Cerebras 晶片 200-300 萬美元
- 成本比較:相同工作負載下, Cerebras 超過 1 億美元 vs Nvidia Blackwell 100 萬美元
擴展性挑戰引發長期可行性質疑
社群中的技術專家指出 Cerebras 晶圓級方法的根本限制。SRAM 技術在新製程中基本上已停止擴展,可能限制未來的效能改進。此外,這些晶片最初是在大型語言模型爆發之前設計的,使其較不適合訓練當今大規模的AI系統。當整個模型能放在晶片上時,這種架構在推理方面表現良好,但當較大模型需要存取外部記憶體時,優勢就變得較不明顯。
晶圓級整合是指在整個矽晶圓上建構處理器,而不是將其切割成較小的個別晶片。
市場地位與客戶體驗參差不齊
儘管存在技術疑慮,Cerebras 已吸引了包括 AWS、Meta 和各政府機構等知名客戶。該公司每月處理數兆個代幣,並在 Hugging Face 上排名第一的推理提供商,每月超過500萬次請求。然而,客戶體驗差異很大。雖然有些用戶讚揚簡單任務的驚人速度,但其他人回報可靠性問題、客戶服務回應時間不佳,以及更複雜編程任務的問題。
「自成立以來,我們已在數百個模型上測試了每個AI推理提供商。Cerebras 始終是最快的。」
該公司的定價策略也招致批評,每月最低承諾從1,500美元到10,000美元不等,再加上使用費用,可能限制較小開發者和公司的採用。
定價結構:
- 個人方案:每月 $50 美元,設有每日代幣使用限制
- 小型團隊方案:每月最低 $1,500 美元
- 企業方案:客製化定價(需聯繫洽詢)
- 最低月費承諾:$1,500-$10,000 美元加上使用費
未來展望仍不確定
社群辯論反映了對專業AI硬體方法的更廣泛質疑。雖然 Cerebras 在超快推理領域開創了利基市場,但像 Nvidia 這樣的競爭對手持續以更多元化的解決方案推進,平衡效能、成本和擴展性。Cerebras 商業模式的成功可能取決於是否有足夠的客戶重視速度勝過成本效益,以及該公司是否能演進其技術來解決擴展性問題,因為AI模型在規模和複雜性方面持續成長。
參考資料:Cerebras Systems Raises $1.1 Billion Series G at $8.1 Billion Valuation
