在快速發展的人工智慧領域, DeepSeek 最近宣佈了其推理引擎元件的開源方法,在科技社群引發了廣泛討論。該公司沒有釋出其全部程式碼庫(這面臨著幾項實際挑戰),而是選擇了一種更具戰略性的方式來為開源生態系統做貢獻。
效能差距揭示了顯著的最佳化潛力
社群已經發現公開可用的推理引擎與 DeepSeek 內部系統之間存在顯著的效能差距。據熟悉基準測試的使用者評論,vLLM(一個開源推理引擎)在高併發下使用 sharegpt 資料集時每秒可實現約 5,000 個總令牌,使用隨機 2000/100 配置時每秒可實現 12,000 個令牌。相比之下, DeepSeek 的內部系統據報道在單個 H800 節點上預填充階段每秒可達約 73,700 個令牌,解碼階段每秒可達 14,800 個令牌。這種巨大的差異突顯了開源推理領域存在的大量改進空間。
效能對比: vLLM 與 DeepSeek 內部引擎
系統 | 配置 | 效能 |
---|---|---|
vLLM | sharegpt 資料集,高併發 | ~5,000 tokens/s |
vLLM | 隨機 2000/100,高併發 | ~12,000 tokens/s |
DeepSeek 內部 | H800 節點,預填充 | ~73,700 tokens/s 輸入 |
DeepSeek 內部 | H800 節點,解碼 | ~14,800 tokens/s 輸出 |
DeepSeek 的開源挑戰
- 程式碼庫分歧:基於一年前的 vLLM 分支,進行了大量定製化
- 基礎設施依賴:與內部系統緊密耦合
- 有限的維護頻寬:小型研究團隊專注於模型開發
DeepSeek 的貢獻策略
- 將獨立功能提取為獨立庫
- 分享最佳化技術和實現細節
- 與現有開源專案合作
維護分叉程式碼庫的挑戰
社群中的許多開發者對 DeepSeek 關於程式碼庫分歧的解釋表示理解。該公司的推理引擎基於一年多前 vLLM 的早期分支,此後已針對其特定模型進行了大量定製。這種情況與許多軟體工程師經歷過的類似挑戰產生共鳴,即維護與原始程式碼庫相距太遠的分支。透過廣泛定製積累的技術債務使得融合社群改進或為更廣泛的用例維護程式碼變得越來越困難。
「我也經歷過這種情況。可能我們中的一些人都有過類似經歷...他們的方法是致力於分離出可維護的子庫並直接共享資訊,即使沒有整合,這似乎是與社群合作的一種非常好的方式。」
開源人工智慧背後的商業邏輯
討論中一個引人入勝的話題圍繞著為什麼商業人工智慧公司首先會分享他們的研究和技術。一些社群成員提供了關於驅動這種看似反直覺行為的商業邏輯的見解。這些動機似乎是多方面的:吸引希望發表其工作的頂尖人才,在行業中建立思想份額,將技術定位為標準,以及加速整個領域的發展,最終使所有參與者受益。
一些評論者指出,在像人工智慧這樣快速發展的領域,接近整個生態系統中正在發生的進步可能比保守創新秘密更有價值。這一觀點將開源貢獻框定為不是利他行為,而是透過互惠互利和生態系統增長追求經濟收益的戰略性商業決策。
分享知識與程式碼的實際價值
關於即使在沒有完整可執行程式碼的情況下分享知識的價值,出現了一個有趣的觀點。幾位開發者指出,不可執行的程式碼或技術描述對於理解論文字身無法完全傳達的實現細節可能非常有價值。這表明 DeepSeek 的方法,即分享最佳化和設計改進,即使不是以完整推理引擎的形式,仍然可以顯著造福社群。
總之, DeepSeek 的決定代表了一種務實的開源貢獻方法,既承認了分享創新的價值,也承認了維護複雜程式碼庫的實際挑戰。隨著人工智慧開發繼續加速,找到能夠同時使公司和更廣泛社群受益的可持續知識共享模式將仍然至關重要。對 DeepSeek 關於這些挑戰的透明度的積極反應表明,技術社群對於開源維護現實的誠實溝通與貢獻本身同樣重視。