國產AI公司深度求索(DeepSeek)開源周正式啟動,并公布首個開源代碼。
2月24日,DeepSeek宣布啟動“開源周”,首個開源的代碼庫為FlashMLA,這是針對Hopper GPU優化的高效MLA解碼內核,針對可變長度序列作了優化,目前已投入生產。
此前2月21日午間,DeepSeek宣布,從下周開始,他們將開源5個代碼庫,以完全透明的方式與全球開發者社區分享他們的研究進展,每日都有新內容解鎖,進一步分享新的進展,并將這一計劃定義為“Open Source Week”。
根據DeepSeek在社交媒體上的內容,在H800上可以實現每秒處理3000GB數據,每秒執行580萬億次浮點運算。
Hopper是英偉達的GPU(圖形處理芯片)架構,例如H100和H800,發布于2022年,主要用于AI計算。
有意思的是,如果把這段內容交給DeepSeek網頁版,詢問開源意義,DeepSeek回答稱,可以理解為專門給高性能顯卡(比如英偉達的Hopper系列GPU)設計的“加速神器”,用來提高AI處理任務的效率。
DeepSeek舉例,假如開了一家快遞分揀站,每天要處理不同大小的包裹,傳統方法是用固定大小的筐子裝,小包裹浪費空間,大包裹又得分筐裝,效率很低。而FlashMLA就像一套“智能分揀系統”,能自動根據包裹大小調整筐子尺寸,讓所有包裹快速、整齊地裝車,既省時間又省錢。
馬斯克旗下xAI的大模型Grok3則評價稱,FlashMLA表明DeepSeek在AI硬件加速領域有深厚積累。MLA本身是他們的創新,而 FlashMLA則是將這種創新落地到硬件的具體實現,性能指標(3000GB/s和580TFLOPS)足以媲美業界頂尖方案(如 FlashAttention)。
Grok3 稱,”想象你有個超級聰明的 AI,但它跑得不夠快,因為每次處理句子時都要浪費很多時間搬數據和算復雜的數學題。FlashMLA 就像給AI加了個‘渦輪增壓引擎’,專門裝在英偉達的Hopper GPU上。它能讓AI用更少的內存、更快的速度處理各種長短不一的句子,開源之后,AI開發會變得更快、更省錢。”
作為開源大模型,DeepSeek的火爆已經帶動了開源成為如今的AI產業新趨勢。
香港科技大學校董會主席、美國國家工程院外籍院士沈向洋在2025全球開發者先鋒大會(GDC)上表示,盡管當前閉源的份額仍然超過開源的份額,但接下來一兩年將劇烈變化,平衡開源與閉源,引領未來。“大模型時代,開源并沒有像以往那么多、那么快,我想,通過上海的努力,我相信開源這件事情會越做越好。中國的團隊、上海的團隊一定會引領開源潮流。”
頭部大廠紛紛跟進開源潮流。2月21日,據阿里巴巴通義實驗室科學家黃斐介紹,到目前為止,整個通義千問(Qwen)系列模型的下載量達到了1.8億,累計衍生模型總數達到9萬個,衍生模型數已經超越Meta的Llama系列,成為了全球第一大開源模型系列。
百度宣布將在未來幾個月中陸續推出文心大模型4.5系列,并于6月30日起正式開源;文心一言自4月1日起全面免費,所有PC端和APP端用戶均可體驗文心系列最新模型。
《中國城市報》社有限公司版權所有,未經書面授權禁止使用
Copyright ? 2015-2025 by www.yktax-zh.com. all rights reserved