久久久九九九一级大片a|一级黄片黄片一级一级|三级无码视频免费操人视频|成人精品A片亚州一区二区|亚洲日韩欧美在线一二区|91丝袜一区二区|国摸私拍电影一区二区爱|免费久久久久久久久久久久|免费国产黄色av发布网址|国产精品人妻人伦a 6 2v久动漫

2026 AI存儲(chǔ)行業(yè)迎來關(guān)鍵時(shí)刻:英偉達(dá)“補(bǔ)課”,華為存儲(chǔ)“解題”

文 | 智能相對(duì)論

作者 | 陳泊丞

數(shù)十億建成的萬卡 GPU 集群,實(shí)際利用率不足 40%。

這不是某個(gè)智算中心的個(gè)例。在過去兩年里,中國涌現(xiàn)了大大小小幾十個(gè)智算中心項(xiàng)目,GPU 買了一批又一批,但真正跑滿的時(shí)候不多。問題不在芯片本身——而在數(shù)據(jù)供給跟不上。

GPU 在空轉(zhuǎn),等存儲(chǔ)喂數(shù)據(jù)。這件事說起來簡單,但背后卻是一筆巨大的“沉沒成本”:花了幾十億建算力,最后發(fā)現(xiàn)瓶頸卡在存儲(chǔ)上。

事實(shí)上,整個(gè)行業(yè)都在討論“算力瓶頸”,但真正拖慢中國 AI 落地節(jié)奏的,很可能是存儲(chǔ)。

有意思的是,正是在這屆 GTC 上,英偉達(dá)第一次把“存儲(chǔ)”放到了與“算力”并列的位置。它在超節(jié)點(diǎn)中內(nèi)置獨(dú)立的存儲(chǔ)柜,定義新的 AI 存儲(chǔ)參考架構(gòu)(STX/CMX),并聯(lián)合 12 家存儲(chǔ)廠商發(fā)布解決方案——這不是英偉達(dá)的常規(guī)操作。

一家靠 GPU 起家的公司,為什么突然對(duì)存儲(chǔ)這么上心?這背后,是 AI 產(chǎn)業(yè)底層邏輯的一次根本性轉(zhuǎn)變。

英偉達(dá)在 GTC 上給全行業(yè)補(bǔ)了一堂存儲(chǔ)課

要理解英偉達(dá)在 GTC 上的動(dòng)作,先得回答一個(gè)問題:為什么它要在這個(gè)節(jié)點(diǎn)做這件事?

答案的背后是一個(gè)正在發(fā)生的大趨勢(shì):從“訓(xùn)練為王”到“推理為王”的階段性轉(zhuǎn)變。

過去幾年,AI 行業(yè)的主要矛盾是“模型不夠大、訓(xùn)練不夠久”。那時(shí)候存儲(chǔ)是配角,GPU 喂飽了數(shù)據(jù)就行。但是,當(dāng)大模型開始大規(guī)模落地,推理變成了主戰(zhàn)場(chǎng),整個(gè)故事的底層邏輯就變了。

推理需要什么?實(shí)時(shí)、低延遲、海量隨機(jī)讀寫的數(shù)據(jù)訪問。這跟訓(xùn)練階段完全不同——訓(xùn)練可以批處理,而推理必須秒級(jí)響應(yīng);訓(xùn)練可以提前準(zhǔn)備好數(shù)據(jù),而推理得隨時(shí)待命。

黃仁勛在 CES 和 GTC 上都說過一句話:"KV Cache 的激增足以催生一個(gè)全新的存儲(chǔ)市場(chǎng)”。這話聽著像營銷,但仔細(xì)想想,GPU 廠商第一次公開承認(rèn)“計(jì)算不再是最稀缺的資源,數(shù)據(jù)供給才是”,這本身就是信號(hào)。

基于這個(gè)認(rèn)知,英偉達(dá)在 GTC 上直接打出了三張關(guān)鍵牌,分別為 CMX、AIDP 和 SCADA,對(duì)應(yīng)回答的是不同層次的問題。

首先,CMX 也就是 G3.5 層,回答“推理太貴”的問題。當(dāng) KV Cache 從顯存溢出到存儲(chǔ)池,推理成本的核心矛盾從“算力貴”變成“數(shù)據(jù)供給貴”。英偉達(dá)用 CMX 架構(gòu)把存儲(chǔ)性能與 GPU 計(jì)算進(jìn)行了深度綁定,這套玩法本質(zhì)上是“極致協(xié)同設(shè)計(jì)”——存儲(chǔ)不再是外掛硬盤,而是 GPU 系統(tǒng)的延伸。

其次,AIDP 回答“數(shù)據(jù)不敢動(dòng)”的問題。深入行業(yè)真實(shí)需求來看,企業(yè)不是沒有數(shù)據(jù),而是數(shù)據(jù)不敢搬、不能搬。譬如,金融客戶的數(shù)據(jù)出不了機(jī)房,政務(wù)系統(tǒng)的數(shù)據(jù)有合規(guī)要求,醫(yī)療數(shù)據(jù)碰都不能碰。因此,英偉達(dá)提出"Data-in-Place"(數(shù)據(jù)就地處理),本質(zhì)是讓 AI 能力下沉到存儲(chǔ)里,減少數(shù)據(jù)的搬運(yùn)。

最后,SCADA 回答"GPU 吃不飽”的問題。在推薦系統(tǒng)、圖神經(jīng)網(wǎng)絡(luò)這些場(chǎng)景,GPU 需要從海量數(shù)據(jù)中隨機(jī)讀取極小粒度的數(shù)據(jù)。然而,傳統(tǒng) I/O 路徑太重,GPU 經(jīng)?!梆I著肚子等數(shù)據(jù)”。為此,SCADA 允許 GPU 繞過了 CPU 直接訪問存儲(chǔ),帶寬接近 HBM,支持 EB 級(jí)數(shù)據(jù)集——很顯然,這是為未來的實(shí)時(shí)決策場(chǎng)景鋪路。

三張牌,三層問題,從眼前到當(dāng)下再到未來,構(gòu)成了英偉達(dá)對(duì) AI 存儲(chǔ)的完整判斷。也正是在這個(gè)判斷下,英偉達(dá)喊出了"2026 is the year of AI storage"。

中國市場(chǎng)的“冰與火”:最旺盛的需求與最普遍的誤判

把視線拉回中國。

事實(shí)上,中國是全球 AI 存儲(chǔ)需求最旺盛的市場(chǎng)——這話不算夸張。智能客服、RAG 知識(shí)中臺(tái)、代碼生成、自動(dòng)駕駛仿真、智能制造......這些場(chǎng)景的落地速度實(shí)實(shí)在在走在了全球前列。

在政策層面,“人工智能+"全面鋪開,數(shù)據(jù)要素×三年行動(dòng)計(jì)劃啟動(dòng),“東數(shù)西算”2.0 推動(dòng)算電協(xié)同——從合規(guī)、基建到成本,政策紅利也在多個(gè)維度拉動(dòng)了高質(zhì)量存儲(chǔ)建設(shè)。

客觀而言,需求是真的。但這枚硬幣還有另一面。

多數(shù)智算中心的存儲(chǔ)投入占比不足 10%,剩下的錢幾乎全砸進(jìn)了 GPU 服務(wù)器。結(jié)果呢?GPU 集群利用率普遍低于 40%,“算力過剩與存儲(chǔ)瓶頸并存”成了一種荒誕的現(xiàn)實(shí)?;藥资畠|買算力,最后發(fā)現(xiàn)卡脖子的不是芯片,是數(shù)據(jù)供給。

這不是技術(shù)問題,是認(rèn)知問題。整個(gè)行業(yè)的注意力都被“算力”兩個(gè)字吸走了,沒人認(rèn)真想過,卡能跑滿嗎?

更棘手的是,冰層之下還有結(jié)構(gòu)性掣肘,不是喊兩句口號(hào)就能解決的。

比如標(biāo)準(zhǔn)缺失。面向昇騰、海光這類國產(chǎn)算力的存儲(chǔ)架構(gòu)和評(píng)測(cè)標(biāo)準(zhǔn)幾乎空白,廠商各自為戰(zhàn),集成成本高企。再比如生態(tài)碎片化。國內(nèi)存儲(chǔ)產(chǎn)業(yè)硬件能力強(qiáng),但核心軟件能力比如 KV Cache 調(diào)度算法、數(shù)據(jù)就地處理引擎——與英偉達(dá)的“極致協(xié)同設(shè)計(jì)”相比,還有肉眼可見的差距。

中國有最大的市場(chǎng)需求,但缺乏把需求轉(zhuǎn)化為產(chǎn)品的生態(tài)協(xié)同能力。這個(gè)矛盾不解決,需求旺盛就只是數(shù)字好看,落不了地。

最核心的問題,可能要靠存儲(chǔ)廠商來回答

那么,這個(gè)局怎么破?

回歸一個(gè)樸素的問題:誰最懂?dāng)?shù)據(jù)?

當(dāng)整個(gè)行業(yè)都在討論“用更多 GPU 訓(xùn)練更大模型”時(shí),做存儲(chǔ)的人在琢磨另一件事:數(shù)據(jù)從哪來、如何治理、怎么讓 AI 用得上——這是兩種完全不同的視角。算力廠商看的是“模型需要多少 Flops",存儲(chǔ)廠商看的是“模型需要多少數(shù)據(jù)、怎么高效喂進(jìn)去”。

這個(gè)視角差異,在 AI 大規(guī)模落地的階段,變得前所未有的重要。

英偉為什么要定義 AIDP 參考架構(gòu)并交給存儲(chǔ)廠商推出解決方案在企業(yè)落地?因?yàn)樵絹碓蕉嗟膹S商意識(shí)到,數(shù)據(jù)供給的入口正在成為 AI 基礎(chǔ)設(shè)施的核心卡口。存儲(chǔ)不再是配角,它可以是主角,是 AI 系統(tǒng)的“數(shù)據(jù)中樞”。

正是基于這個(gè)判斷,華為打破了傳統(tǒng)存儲(chǔ)的煙囪式結(jié)構(gòu),用一套底座即 AIDP(AI Data Platform)架構(gòu)覆蓋了三大場(chǎng)景。

這套架構(gòu)的核心邏輯其實(shí)很樸素:客戶不需要為 KV Cache、AIDP、SCADA 分別建三套系統(tǒng),這不是成本問題,是現(xiàn)實(shí)不允許。舉個(gè)例子,一個(gè)智算中心可能有昇騰和海光的卡要兼顧,一個(gè)金融機(jī)構(gòu)的數(shù)據(jù)不能出域但又要支撐實(shí)時(shí)推理——這些矛盾不是買更多 GPU 能解決的,需要的是一套能統(tǒng)一調(diào)度、分層處理、漸進(jìn)演進(jìn)的存儲(chǔ)架構(gòu)。

圍繞這個(gè)邏輯,華為在每一層都埋了具體的能力。

G3.5 層,UCM(統(tǒng)一緩存管理器)實(shí)現(xiàn)顯存與存儲(chǔ)間的秒級(jí)熱遷移,推理并發(fā)能力提升數(shù)倍——這解決的是“推理貴”的問題,讓 PB 級(jí) KV Cache 不再必須駐留在昂貴的 HBM 顯存里。

企業(yè) AI 層,VSS 向量檢索和 RAG 能力直接內(nèi)嵌到存儲(chǔ)系統(tǒng),數(shù)據(jù)不用搬出去就能被調(diào)用——這解決的是“數(shù)據(jù)不敢動(dòng)”的問題,合規(guī)要求不是束縛,而是架構(gòu)設(shè)計(jì)的起點(diǎn)。

SCADA 層,預(yù)留 GPU Initiate IO 接口,支持未來 GPU 直接訪問超大規(guī)模數(shù)據(jù)集——這一步是面向未來的,目前能落地的場(chǎng)景有限,但架構(gòu)要提前站位。

三層能力對(duì)應(yīng)三層價(jià)值:眼前的降本、當(dāng)下的合規(guī)、未來的擴(kuò)展。這不是功能堆砌,是有優(yōu)先級(jí)判斷的演進(jìn)路線。

落地層面,基于 OceanStor A800 高性能 AI 存儲(chǔ)和 OceanStor Dorado 全閃存存儲(chǔ),華為提供了一體化和獨(dú)立式兩種交付模式——前者面向新建場(chǎng)景,后者面向存量系統(tǒng)的漸進(jìn)式改造。不同客戶的現(xiàn)實(shí)處境不同,解法也不同,這本身就是務(wù)實(shí)的體現(xiàn)。

說到底,中國 AI 存儲(chǔ)市場(chǎng)需要的不是“英偉達(dá)的中國版”,而是一條適配本土需求的務(wù)實(shí)路徑。華為在做這件事,不代表它是唯一答案,但這條路線的核心判斷——統(tǒng)一底座、平滑演進(jìn)、數(shù)據(jù)安全內(nèi)生,確實(shí)回應(yīng)了當(dāng)前市場(chǎng)最真實(shí)的痛點(diǎn)。

結(jié)語

GTC 2026 或許只是起點(diǎn)。

英偉達(dá)在補(bǔ)課,存儲(chǔ)廠商在解題,中國市場(chǎng)的需求在倒逼整個(gè)行業(yè)重新審視這個(gè)問題。當(dāng)“算力”不再是稀缺資源的代名詞,數(shù)據(jù)供給的效率正在成為下一階段 AI 競爭的關(guān)鍵變量。

當(dāng)然,“重算力、輕存力”的慣性思維不會(huì)自動(dòng)消失。它需要有人指出這個(gè)問題,需要有人用實(shí)際案例證明:存儲(chǔ)投入的 ROI,可能比追加 GPU 更能提升整個(gè)系統(tǒng)的效率。

這不是華為一家公司的事。這是整個(gè)行業(yè)都需要回答的問題。

此內(nèi)容為【智能相對(duì)論】原創(chuàng),

僅代表個(gè)人觀點(diǎn),未經(jīng)授權(quán),任何人不得以任何方式使用,包括轉(zhuǎn)載、摘編、復(fù)制或建立鏡像。

?AI 產(chǎn)業(yè)新媒體;

?澎湃新聞科技榜單月度 top5;

?文章長期“霸占”鈦媒體熱門文章排行榜 TOP10;

?著有《人工智能 十萬個(gè)為什么》

?【重點(diǎn)關(guān)注領(lǐng)域】智能家電(含白電、黑電、智能手機(jī)、無人機(jī)等 AIoT 設(shè)備)、智能駕駛、AI+、、、AI+、AI+、AR/VR、、開發(fā)者以及背后的芯片、算法等。

特別聲明:本文為合作媒體授權(quán) DoNews 專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表 DoNews 專欄的立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請(qǐng)聯(lián)系idonews@donews.com)

標(biāo)簽: 華為
Copyright ? DoNews 2000-2026 All Rights Reserved
京ICP備2025120072號(hào)