華為直指AI存儲器市場,將發(fā)布自研AI SSD
華為定于8月27日召開「AI SSD,加速智能經(jīng)濟涌現(xiàn)」新品發(fā)布會,劍指AI存儲器賽道,計劃以技術(shù)創(chuàng)新推出大容量AI SSD,突破傳統(tǒng)HBM的容量限制。
在當前的AI存儲器領(lǐng)域,HBM占據(jù)重要地位 —— HBM是一種通過3D堆疊和超寬接口,實現(xiàn)極高數(shù)據(jù)傳輸帶寬的先進內(nèi)存技術(shù),通常直接封裝在GPU卡中。問題在于,傳統(tǒng)HBM受容量制約,難以滿足AI大模型等場景需求,HBM犧牲容量換取極致帶寬和能效的策略導(dǎo)致現(xiàn)有算力卡上HBM的容量比較有限。
華為將發(fā)布的全新AI SSD產(chǎn)品,可以有效滿足AI訓(xùn)練推理過程中的超大容量和超強性能的需求,助力AI訓(xùn)練推理、大模型部署。此舉將進一步強化華為存儲器在AI時代的競爭力,推動國產(chǎn)存儲生態(tài)發(fā)展。
隨著全球AI算力需求以每年200%的速度激增,傳統(tǒng)存儲架構(gòu)正面臨前所未有的挑戰(zhàn)。HBM雖以3.6TB/s的帶寬成為GPU黃金搭檔,但其單顆容量上限僅為24GB,且每GB成本高達DRAM的5倍,導(dǎo)致千億參數(shù)大模型訓(xùn)練成本突破千萬美元。更致命的是,HBM需依賴TSV封裝技術(shù),全球僅三星、SK海力士掌握核心工藝,供應(yīng)鏈安全風(fēng)險陡增。
華為即將發(fā)布的AI SSD新品是其“以存代算”技術(shù)理念的核心硬件載體,旨在通過存儲架構(gòu)創(chuàng)新突破AI推理中的“內(nèi)存墻”瓶頸,降低對HBM的依賴。“以存代算”是技術(shù)理念,AI SSD是落地載體,共同構(gòu)成華為應(yīng)對先進制程限制的系統(tǒng)性解決方案。該技術(shù)通過將AI推理所需的矢量數(shù)據(jù)從DRAM內(nèi)存遷移至SSD閃存介質(zhì)優(yōu)化計算效率,核心價值在于緩解先進制程限制(如華為受7nm制程制約)、降低對HBM/GPU的過度依賴,其本質(zhì)是存儲層擴展(從內(nèi)存到SSD),而非DRAM的替代品。
· 存算一體架構(gòu):在SSD主控芯片集成AI加速單元,實現(xiàn)數(shù)據(jù)存儲與預(yù)處理同步完成,減少80%的數(shù)據(jù)搬運能耗;
· 36層DOB堆疊工藝:突破傳統(tǒng)16層限制,單芯片容量達36TB,單硬盤容量提升至256TB,單位成本降低40%;
· CXL 2.0互聯(lián)技術(shù):直接擴展GPU顯存,解決"顯存墻"問題,使A100 GPU利用率提升35%。
這一技術(shù)組合使AI SSD在保持HBM級帶寬的同時,容量提升10倍以上,徹底改寫AI存儲的性價比公式。IDC預(yù)測,到2026年AI SSD將占據(jù)12%的NAND閃存市場份額,年復(fù)合增長率超60%。不過,這并非華為獨有技術(shù),鎧俠、美光、英偉達等巨頭同步布局,華為因受美國制裁無法突破先進制程轉(zhuǎn)向系統(tǒng)級創(chuàng)新,是其布局該技術(shù)的特殊動因。
評論