久久久九九九一级大片a|一级黄片黄片一级一级|三级无码视频免费操人视频|成人精品A片亚州一区二区|亚洲日韩欧美在线一二区|91丝袜一区二区|国摸私拍电影一区二区爱|免费久久久久久久久久久久|免费国产黄色av发布网址|国产精品人妻人伦a 6 2v久动漫

在大模型這件事上,雷軍居然給馬斯克打樣了

在小米正式發(fā)布了MiMo-V2-Pro大模型以后,第一個出現(xiàn)在我腦子里的人不是雷軍,而是馬斯克。

因?yàn)樗膞AI現(xiàn)在實(shí)在太尷尬了。2023年成立,融資超過500億美元,聯(lián)創(chuàng)團(tuán)隊(duì)更是涵蓋了OpenAI、Deep Mind、微軟以及谷歌大腦。

最新的Grok 4.20 Beta,還搞了個四agent并行的多智能體架構(gòu),通過Grok、Harper、Benjamin、Lucas這四個 agent內(nèi)部辯論,提高輸出答案。

結(jié)果呢?Grok 4.20 Beta在Artificial Analysis Intelligence Index上只拿了48分,反觀雷軍這邊,小米的MiMo-V2-Pro則拿到了49分。

小米大模型Core團(tuán)隊(duì)第一次發(fā)布模型是在2025年4月30日,初代MiMo,參數(shù)量只有7B,屬于是“玩具級”。

不過MiMo在數(shù)學(xué)推理和代碼生成上打贏了OpenAI o1-mini,算是小米在AI賽道上的第一聲響。

隨后,小米用一個匿名代號“Hunter Alpha”悄悄上線OpenRouter,一周之內(nèi)調(diào)用量自然增長到日榜第一、總量破1T tokens,全球開發(fā)者在不知道品牌的情況下用腳投票,然后小米公眾號深夜發(fā)微信說“對,這是小米做的?!?/p>

論大模型,馬斯克確實(shí)該拜雷軍為師。

01

MiMo-V2-Pro 憑什么站上牌桌

在業(yè)務(wù)上,雷軍比馬斯克還晚啟動了一年。

2023年4月雷軍推動成立小米AI實(shí)驗(yàn)室大模型團(tuán)隊(duì),欒劍擔(dān)任首任負(fù)責(zé)人。只不過這個AI跟我們現(xiàn)在說的大語言模型、agent,并非一回事。

直到2024年底、2025年初,小米才成立了通用基礎(chǔ)大模型相關(guān)的Core團(tuán)隊(duì)。

這個團(tuán)隊(duì)同樣也是雷軍親自主導(dǎo)、親自推動,并且對大模型業(yè)務(wù)投入不設(shè)上限。

如果只看架構(gòu)層面,MiMo-V2-Pro并沒有什么讓人眼前一亮的東西。1T參數(shù)、42B激活參數(shù)、100萬token上下文,這些放在今天都不稀奇。

MiMo-V2-Pro采用的MoE(混合專家)、混合注意力機(jī)制、MTP(多token預(yù)測),這些也都是大模型領(lǐng)域的通用技術(shù)方案,DeepSeek在用,谷歌也在用。

真正讓這個模型區(qū)別于同行的,是后訓(xùn)練階段的三項(xiàng)技術(shù)。

第一項(xiàng)是MOPD,全稱Multi-Teacher On-Policy Distillation,多教師在線策略蒸餾。這是小米在MiMo-V2-Flash技術(shù)報告中首次提出的后訓(xùn)練范式。

要理解MOPD的價值,得先理解它要解決的問題。

大模型后訓(xùn)練有一個通病,俗名叫“蹺蹺板效應(yīng)”。就是說你把數(shù)學(xué)能力練強(qiáng)了,代碼能力就退化;你把a(bǔ)gent能力拉上來,通用對話又變差。

這不是說某個團(tuán)隊(duì)的技術(shù)不夠,這是整個產(chǎn)業(yè)都在面臨的問題。

目前大家比較認(rèn)可的對應(yīng)方法有兩種,第一種是訓(xùn)練多個領(lǐng)域?qū)<夷P?,然后通過參數(shù)合并把它們糅在一起。不過這種方法的效果不是很理想。

另一種是讓專家模型生成大量離線數(shù)據(jù),再讓學(xué)生模型去學(xué),但這種方式存在嚴(yán)重的“分布偏移”問題。可是學(xué)生只學(xué)會了教師的答題方式,模型根本沒有建立自己的思考方式,一旦遇到教師沒覆蓋的場景就會失靈。

MOPD的做法分三個階段。第一階段是通用 SFT,用高質(zhì)量指令數(shù)據(jù)做基礎(chǔ)微調(diào),激活模型的指令跟隨能力,這一步?jīng)]什么特別的。

第二階段是分別訓(xùn)練多個領(lǐng)域?qū)<医處?,比如說代碼agent教師、搜索agent教師、數(shù)學(xué)推理教師、安全對齊教師,每個教師在自己的領(lǐng)域做到極致,不用管其他領(lǐng)域。

第三階段是關(guān)鍵創(chuàng)新,讓學(xué)生模型自己生成回答,然后同時接受多個教師的token級實(shí)時監(jiān)督。學(xué)生從自身分布采樣,接收自領(lǐng)域教師的KL散度獎勵和可驗(yàn)證的結(jié)果獎勵這兩類信號,前者告訴模型“這個字應(yīng)該怎么寫”,后者告訴模型“最終答案對不對”。

小米公布的數(shù)據(jù)顯示,經(jīng)過MOPD訓(xùn)練的學(xué)生模型在AIME 2025數(shù)學(xué)競賽上達(dá)到94.1分,不僅保住了最強(qiáng)數(shù)學(xué)教師的水平,在部分項(xiàng)目上甚至超越了教師本身。

第二項(xiàng)是真實(shí)環(huán)境的agentic RL訓(xùn)練。

盡管說現(xiàn)在大模型都會強(qiáng)調(diào)自己的agent能力如何如何,但是絕大多數(shù)模型在強(qiáng)化學(xué)習(xí)過程中,都是非agent相關(guān)的。

模型看一道題,輸出一個答案,對完答案給個獎勵,整個過程是單輪的、封閉的。

現(xiàn)實(shí)世界的任務(wù)可不是這樣運(yùn)作的。一個真正的agent需要讀代碼、改bug、跑測試、看報錯、再改、再跑,這是一個包含了多種情況的完整過程。

小米為此構(gòu)建了一套覆蓋四大類場景、總計超過12萬個真實(shí)交互環(huán)境的agent訓(xùn)練體系。

代碼agent的訓(xùn)練數(shù)據(jù)從真實(shí)GitHub Issues中提取,模型需要在agent循環(huán)中讀文件、改代碼、跑命令、看測試結(jié)果,獎勵來自可驗(yàn)證的單元測試。

終端agent從Stack Overflow和Stack Exchange中篩選需要高級技術(shù)專長的問題,轉(zhuǎn)化為帶有完整Docker環(huán)境和測試用例的計算任務(wù)。

網(wǎng)頁開發(fā)agent用Playwright執(zhí)行生成代碼并錄制視頻,再用多模態(tài)視覺判別器評估質(zhì)量——用視頻而非靜態(tài)截圖來評估,因?yàn)橐曨l能捕捉交互動畫和響應(yīng)式布局等動態(tài)特性。

通用agent覆蓋搜索和函數(shù)調(diào)用兩個方向。

其結(jié)果就是,在多樣化agent 環(huán)境中增加強(qiáng)化學(xué)習(xí)計算量,收益會泛化到數(shù)學(xué)推理、通用推理等其他任務(wù)。也就是說,agent訓(xùn)練培養(yǎng)的不是某個特定技能,而是一種通用的問題解決能力。

別的大模型是在教室里做卷子,MiMo-V2-Pro 是直接被扔進(jìn)許多個真實(shí)工作場景里實(shí)習(xí),做錯了有真實(shí)的測試結(jié)果告訴你哪里錯了。

實(shí)習(xí)鍛煉出來的模型,比做卷子練出來的,更懂得如何處理問題。

第三項(xiàng)是ARL-Tangram,這是小米與北京大學(xué)計算機(jī)學(xué)院聯(lián)合研發(fā)的Agent RL訓(xùn)練基礎(chǔ)設(shè)施系統(tǒng),也是羅福莉作為通訊作者所參與的研究。

MOPD和Agentic RL解決的是“怎么訓(xùn)練”的問題,ARL-Tangram解決的是“用什么訓(xùn)練”的問題。

agent需要頻繁調(diào)用外部資源,代碼執(zhí)行需要CPU,獎勵模型需要GPU,網(wǎng)頁搜索需要API配額。 傳統(tǒng)的RL框架,它的做法是靜態(tài)資源預(yù)留,給每條訓(xùn)練軌跡分配一套固定資源,從頭占到尾。

這就導(dǎo)致說即便沒有任務(wù),這條通道也被占用,別人想走也走不了。

ARL-Tangram的實(shí)測數(shù)據(jù)顯示,在AI編程任務(wù)中,外部資源平均只有47%的時間在被使用,剩下53%完全閑置。

在MOPD訓(xùn)練場景中更夸張,12個教師模型各自占著一組GPU提供獎勵服務(wù),但這些GPU的平均流式多處理器活躍率不到3%,相當(dāng)于97%的算力在空轉(zhuǎn)。

ARL-Tangram繼承了小米性價比之王的基因,它的核心思路就是細(xì)化資源管理,讓每一份算力都跑得更有價值。

每次外部調(diào)用被視為一個原子動作,動作結(jié)束后資源立即釋放,供其他軌跡使用。

實(shí)測效果:動作完成時間提升最高4.3倍,RL訓(xùn)練步驟時間加速最高1.5 倍,外部資源消耗降低71.2%。

同樣的硬件投入,能支撐多得多的訓(xùn)練量。

雷軍在V2-Pro發(fā)布當(dāng)天的微博里寫了一句話:“我們在 AI 領(lǐng)域上相對比較低調(diào),實(shí)際進(jìn)展可能比大家看到的要快很多?!?/p>

確實(shí),小米在AI上的進(jìn)展,遠(yuǎn)遠(yuǎn)超過了我的認(rèn)知。

02

MiMo-V2-Pro對小米意味著什么

MiMo-V2-Pro出現(xiàn)之前,小米在軟件和AI領(lǐng)域的技術(shù)存在感很低。

提到智能駕駛,人們想到的是特斯拉、華為、小鵬;提到大模型,是字節(jié)、阿里、騰訊。小米的標(biāo)簽始終是“硬件性價比之王”,雷軍的手機(jī)、IoT 設(shè)備、汽車,都是硬件敘事。

誠然,這個標(biāo)簽幫小米賣出了很多產(chǎn)品,但也把它牢牢釘在了“組裝廠”的認(rèn)知框架里。

雷軍自己也清楚這一點(diǎn)。

2023年年度演講上,他提出了一個新公式:“(軟件×硬件)^AI”,宣布小米未來五年研發(fā)投入超過1000億元,重點(diǎn)攻堅(jiān)芯片、AI和操作系統(tǒng)。

這個公式當(dāng)時聽起來以為雷軍是說著玩玩的,結(jié)果人家這回來真的。

MiMo-V2-Pro的誕生,第一次讓小米在純技術(shù)維度上獲得了一個全球級的排名。

Artificial Analysis Intelligence Index全球前十,中國第二。

事實(shí)上,我覺得只要能在全球大模型排行榜上占有一席之地,都相當(dāng)于在資本市場、人才招募、合作談判中都多了一張手牌。

至少當(dāng)雷軍說“小米是一家AI公司”的時候,能拿出這樣一個成果來支撐觀點(diǎn)。

但排名只是表面。更值得關(guān)注的是 MiMo-V2-Pro 與小米其他業(yè)務(wù)線之間的潛在協(xié)同。

小米汽車的智能駕駛團(tuán)隊(duì)在2026年3月剛剛完成組織架構(gòu)調(diào)整,將“感知”和“規(guī)控”兩個部門合并為“端到端算法與功能部”,全面轉(zhuǎn)向端到端大模型技術(shù)路線,目標(biāo)年內(nèi)實(shí)現(xiàn)端到端智駕交付。

與此同時,小米早在2025年11月就發(fā)布了MiMo-Embodied,同步覆蓋具身智能和自動駕駛的核心任務(wù)——環(huán)境感知、狀態(tài)預(yù)測、駕駛規(guī)劃。

所以MiMo-V2-Pro的這些成績,說白了那都是給小米汽車打的廣告。

MiMo-V2-Pro本身作為1T參數(shù)的云端模型,顯然無法直接部署到車端,沒有哪塊車載芯片跑得動這個體量。

但小米的布局邏輯是“云-邊-端”協(xié)同:云端用V2-Pro級別的大模型做訓(xùn)練、仿真和復(fù)雜決策,端側(cè)用壓縮后的輕量模型做實(shí)時推理。

MiMo-V2-Pro的價值不在于直接上車,而在于作為“教師模型”,通過前面提到的MOPD,將V2-Pro的能力蒸餾到端側(cè)小模型中。

馬斯克這邊,情況就微妙多了。

Grok在2025年底的一次Holiday Update正式住進(jìn)了特斯拉的車機(jī)里,然而它卻只能設(shè)導(dǎo)航目、聊聊天,相當(dāng)于是一個語音助手,它跟FSD之間只有導(dǎo)航鏈路的淺層聯(lián)動。

與此同時,特斯拉本身車內(nèi)控制座艙的AI,是來自于特斯拉自己的,跟xAI關(guān)系不大。

2026年3月,馬斯克宣布了一個叫“Digital Optimus”的聯(lián)合項(xiàng)目,說是要讓Grok充當(dāng)“高層推理大腦”。

他用了卡尼曼的雙系統(tǒng)理論來類比,Grok是慢思考的System 2,特斯拉AI是快反應(yīng)的System 1,也就是實(shí)時感知和動作執(zhí)行。

然而僅憑馬斯克的想法,我認(rèn)為它們之間的協(xié)同遠(yuǎn)沒有小米“云端大模型蒸餾到車端小模型”這條路徑來得清晰。

03

我給MiMo-V2-Pro挑刺

本文并不是小米的軟文,我只是一個AI產(chǎn)業(yè)的觀察者,所以我在這部分準(zhǔn)備給小米挑挑刺,以示公正。

先看Benchmark。

MiMo-V2-Pro公布的SWE-bench Verified得分為78.0%,接近Claude 4.6 Sonnet的79.6%,這是一份關(guān)于AI編程的測試集,MiMo-V2-Pro的數(shù)字也確實(shí)好看。

但這里有一個行業(yè)內(nèi)已經(jīng)公開的秘密,SWE-bench Verified這個測試集本身已經(jīng)不再可靠。

OpenAI的Frontier Evals團(tuán)隊(duì)在2026年2月23日明確表示,SWE-bench Verified“實(shí)際上已經(jīng)飽和且高度被污染”,并且建議行業(yè)轉(zhuǎn)向更難的SWE-bench Pro。

OpenAI的研究人員發(fā)現(xiàn),包括GPT-5.2、Claude Opus 4.5和Gemini 3 Flash Preview在內(nèi)的多個前沿模型,僅憑 SWE-bench Verified的Task ID就能復(fù)述出原始的gold patch,這就相當(dāng)于你考試的時候,不用看題目,只看題目的編號就能給出答案。

這意味著測試題目很可能已經(jīng)進(jìn)入了訓(xùn)練數(shù)據(jù)。在這樣一個被污染的測試集上拿高分,說服力大打折扣。

MiMo-V2-Pro沒有公布SWE-bench Pro的成績。這個更難、更抗污染的版本才是2026年衡量編碼能力的真正標(biāo)尺。

作為參考,目前SWE-bench Pro上表現(xiàn)最好的模型是OpenAI GPT-5.4,得分僅為57.7%,與SWE-bench Verified上動輒70%以上的成績形成鮮明對比。

不止SWE-bench Pro。

MiMo-V2-Pro還缺席了另外幾個關(guān)鍵的新一代測試集:ARC-AGI-2,專門測試推理泛化能力,純LLM得分為1%,最佳推理系統(tǒng)僅54%,人類平均60%;Frontier Math,前沿數(shù)學(xué)推理;LiveCodeBench v6,按月更新的編程評測,幾乎不可能被訓(xùn)練數(shù)據(jù)污染。

一個模型選擇公布哪些benchmark、不公布哪些benchmark,本身就是一種信息篩選。

還有一個容易被忽略的問題:MiMo-V2-Flash是MIT開源的,但MiMo-V2-Pro的權(quán)重并未開源。

羅福莉在發(fā)布聲明中說“會開源——當(dāng)模型足夠穩(wěn)定值得開源的時候”,但在那之前,說明V2-Pro的性能還不夠穩(wěn)定。

雷軍說“我們模型剛剛完成,未來一段時間,還會快速迭代增強(qiáng)”。這句話既是承諾,也是對現(xiàn)狀的坦率承認(rèn)。

MiMo-V2-Pro確實(shí)還有不少短板需要補(bǔ)。

它是小米從“硬件公司”到“AI公司”敘事轉(zhuǎn)型中最重要的一塊拼圖,但這塊拼圖能否真正嵌入小米的商業(yè)版圖,而不只是掛在墻上供人觀賞,還需要時間來回答。

特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個人觀點(diǎn),不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)

標(biāo)簽: 大模型 雷軍 馬斯克 AI
在大模型這件事上,雷軍居然給馬斯克打樣了
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2026 All Rights Reserved
蜀ICP備2024059877號-1