文 | 智能相對(duì)論
作者 | 陳泊丞
今年整個(gè)AI圈最熱鬧的事件莫過于全民“養(yǎng)龍蝦”——OpenClaw的走紅,讓大家終于看到了AGI落地的具象化可能。
然而,當(dāng)業(yè)界為Agent“手腳”的日益靈活而歡呼時(shí),一個(gè)更根本的問題卻被暫時(shí)掩蓋了——真正決定OpenClaw行動(dòng)價(jià)值的“大腦”,也就是它背后的大模型底座,似乎正走在一條不可持續(xù)的道路上。
過去兩年,大模型行業(yè)奉行的是典型的“暴力美學(xué)”,即參數(shù)越多代表智能越高,思維鏈越長(zhǎng)代表推理越深。萬(wàn)億參數(shù)模型接連登場(chǎng),長(zhǎng)思維鏈成為技術(shù)先進(jìn)性的標(biāo)配。但在這股狂熱之下,一個(gè)尷尬的事實(shí)逐漸浮出水面——大量參數(shù)只是“吃算力”的擺設(shè),超過70%的Token消耗發(fā)生在模型“已經(jīng)答對(duì)、仍在反思”的無(wú)效階段。
因此,當(dāng)OpenClaw這樣的執(zhí)行端已經(jīng)準(zhǔn)備好進(jìn)入工廠、倉(cāng)庫(kù)、辦公室,我們才發(fā)現(xiàn),驅(qū)動(dòng)它的“大腦”要么昂貴到企業(yè)用不起,要么為了省錢而被迫“降智”。這或許是2026年AI產(chǎn)業(yè)化最核心的悖論——手腳已經(jīng)就位,大腦卻還在“算力通脹”的泥潭中掙扎。
這一困局如何打破?就在前不久,YuanLab.ai團(tuán)隊(duì)開源了Yuan 3.0 Ultra萬(wàn)億參數(shù)模型,以一套截然不同的、更務(wù)實(shí)的技術(shù)路線,也在試圖解答當(dāng)前行業(yè)的這一根本性問題:當(dāng)模型規(guī)模的擴(kuò)張已觸及收益遞減的臨界點(diǎn),大模型的下一場(chǎng)競(jìng)賽,究竟應(yīng)該比什么?
如果OpenClaw的大腦困于“昂貴”與“降智”的兩難,那么,整個(gè)行業(yè)就必須重新審視那個(gè)曾被奉為圭臬的增長(zhǎng)邏輯。
算力通脹時(shí)代,市場(chǎng)渴望一場(chǎng)“價(jià)值回歸”
過去兩年,行業(yè)經(jīng)歷了一場(chǎng)深刻的認(rèn)知撕裂。
撕裂的一邊是技術(shù)供給側(cè)的狂歡。萬(wàn)億參數(shù)模型接連登場(chǎng),推理模型追逐越來(lái)越長(zhǎng)的思維鏈,仿佛“想得越多”就等于“想得越對(duì)”。在國(guó)際AI頂會(huì)上,論文的核心賣點(diǎn)往往是“我們的模型又大了多少億”“我們的思維鏈又長(zhǎng)了多少步”。
撕裂的另一邊是企業(yè)需求側(cè)的清醒。當(dāng)技術(shù)營(yíng)銷的喧囂褪去,企業(yè)客戶在采購(gòu)時(shí)開始用最樸素也最殘酷的ROI邏輯發(fā)問:每一次API調(diào)用支付的Token費(fèi)用,究竟有多少轉(zhuǎn)化為真正的業(yè)務(wù)價(jià)值?
事實(shí)上,研究顯示,在復(fù)雜推理任務(wù)中,模型超過70%的Token消耗發(fā)生在“已經(jīng)答對(duì)”后的自我驗(yàn)證階段。這意味著,企業(yè)每為模型智能支付10元錢,有7元是在為它的“過度思考”買單。
與此同時(shí),更隱蔽的浪費(fèi)還藏在模型結(jié)構(gòu)本身。MoE(混合專家)架構(gòu)在預(yù)訓(xùn)練中會(huì)自發(fā)形成專家分化,負(fù)載最高的專家與最低的專家差距可達(dá)500倍。這意味著,大量長(zhǎng)期閑置的“僵尸專家”成了模型參數(shù)虛高的主要推手——它們幾乎不干活,卻依然在每一次推理中被加載、被維護(hù)、被計(jì)費(fèi)。
由此,“算力通脹”問題就不得不重視起來(lái)。參數(shù)規(guī)模在膨脹,推理鏈條在拉長(zhǎng),但單位算力產(chǎn)出的真實(shí)智能卻在稀釋。當(dāng)OpenClaw這樣的執(zhí)行端開始規(guī)?;渴?,這種“通脹”帶來(lái)的成本壓力被成倍放大——每一次物理動(dòng)作背后,都是大量的Token在燃燒。
今天,YuanLab.ai團(tuán)隊(duì)已經(jīng)敏銳地捕捉到這一趨勢(shì)的不可持續(xù)性。在此前發(fā)布的Yuan 3.0 Flash中,他們就首次驗(yàn)證了“反過度思考”的技術(shù)可行性,通過RIRM(Reflection Inhibition Reward Mechanism,反思抑制獎(jiǎng)勵(lì))機(jī)制讓模型學(xué)會(huì)在恰當(dāng)?shù)臅r(shí)候停下來(lái)。直到Y(jié)uan 3.0 Ultra的開源,這一理念進(jìn)一步從“效率優(yōu)化”升維為“范式定義”——當(dāng)行業(yè)還在比拼誰(shuí)能堆出更大模型時(shí),真正的競(jìng)爭(zhēng)已悄然轉(zhuǎn)向誰(shuí)能用更少的算力提煉出更有效的智能。
是時(shí)候?qū)Α叭f(wàn)億參數(shù)”祛魅了
客觀而言,Yuan 3.0 Ultra的突破性,不在于它邁入了萬(wàn)億俱樂部,而在于它對(duì)“萬(wàn)億參數(shù)”這一概念本身完成了一次徹底的“祛魅”。
其一,對(duì)“參數(shù)規(guī)?!钡撵铟龋篖AEP算法讓模型學(xué)會(huì)“精簡(jiǎn)”。
行業(yè)長(zhǎng)期存在一個(gè)思維定式:參數(shù)越多,模型越強(qiáng)。這一認(rèn)知如此根深蒂固,以至于每當(dāng)有廠商發(fā)布更大參數(shù)的模型,資本市場(chǎng)都會(huì)給出積極反饋。
Yuan 3.0 Ultra用自適應(yīng)專家裁剪算法(Layer-Adaptive Expert Pruning,LAEP)戳破了這一神話。研究團(tuán)隊(duì)發(fā)現(xiàn),MoE模型在預(yù)訓(xùn)練中會(huì)自然形成專家功能分化,但分化不等于優(yōu)化——大量低貢獻(xiàn)專家長(zhǎng)期閑置,卻依然消耗著寶貴的算力資源。LAEP算法的精妙之處,就在于它像一位清醒的“組織優(yōu)化顧問”,在訓(xùn)練過程中動(dòng)態(tài)識(shí)別冗余專家并予以裁剪,將初始1515B參數(shù)優(yōu)化至1010B,參數(shù)規(guī)模減小33.3%,預(yù)訓(xùn)練算力效率反而提升49%。
對(duì)于企業(yè)而言,這意味著可以用更低的硬件門檻、更少的GPU租賃開支,獲得與1515B參數(shù)模型同等的旗艦級(jí)智能支撐。那么,當(dāng)別人還在為參數(shù)規(guī)模競(jìng)賽買單時(shí),Yuan 3.0 Ultra的用戶就已經(jīng)在享受“減重”后的成本紅利了。
二、對(duì)“思維鏈長(zhǎng)度”的祛魅:RIRM機(jī)制讓模型懂得“停”的智慧。
當(dāng)全行業(yè)沉迷于“讓模型想得更久”,一個(gè)根本性問題卻被忽略了:什么時(shí)候該停下來(lái)?——這不僅是效率問題,更是安全問題。
試想一下,一個(gè)由OpenClaw驅(qū)動(dòng)的工業(yè)機(jī)器人,如果它的“大腦”在識(shí)別到安全隱患后還要反復(fù)思考、再三確認(rèn),哪怕只是幾秒鐘的延遲,都可能釀成事故。在真實(shí)世界中,“想太多”和“想錯(cuò)”一樣危險(xiǎn)。
對(duì)此,Yuan 3.0 Ultra引入的反思抑制獎(jiǎng)勵(lì)機(jī)制(RIRM),恰恰是對(duì)“長(zhǎng)思維鏈崇拜”的一次精準(zhǔn)糾偏。它不是簡(jiǎn)單粗暴地截?cái)噍敵觯峭ㄟ^強(qiáng)化學(xué)習(xí)訓(xùn)練,讓模型學(xué)會(huì)區(qū)分兩種狀態(tài):什么時(shí)候需要繼續(xù)推理,什么時(shí)候已經(jīng)可以停止。研究團(tuán)隊(duì)將最大可接受反思步數(shù)設(shè)為3,理想狀態(tài)下鼓勵(lì)直接響應(yīng),復(fù)雜問題允許適度反思,但一旦超過閾值,獎(jiǎng)勵(lì)機(jī)制就會(huì)啟動(dòng)抑制。
由此,訓(xùn)練準(zhǔn)確率提升16.33%,同時(shí)平均響應(yīng)長(zhǎng)度縮短14.38%。在MATH-500基準(zhǔn)上,反思階段的Token消耗顯著降低。這種“該停就?!钡哪芰?,在企業(yè)高頻調(diào)用場(chǎng)景中產(chǎn)生的價(jià)值,遠(yuǎn)大于在單一benchmark上刷出0.1%的提升。當(dāng)每一次API調(diào)用都在為企業(yè)省錢,而不是為模型的“內(nèi)心戲”買單,規(guī)?;瘧?yīng)用才真正成為可能。
三、對(duì)“多模態(tài)”的祛魅:LFA機(jī)制讓模型專注“有效關(guān)聯(lián)”。
多模態(tài)是AI行業(yè)長(zhǎng)期以來(lái)的另一大熱詞。但多模態(tài)不是簡(jiǎn)單的圖文拼接,更不是把圖片和文字扔進(jìn)同一個(gè)模型就萬(wàn)事大吉。企業(yè)在真實(shí)業(yè)務(wù)場(chǎng)景中的多模態(tài),往往是財(cái)報(bào)里圖文混排的復(fù)雜表格,是合同中穿插的掃描件和手寫批注,是技術(shù)文檔里跨頁(yè)面關(guān)聯(lián)的圖表和數(shù)據(jù)。因此,處理這些信息,需要的不是“什么都能看”的泛泛能力,而是“能看懂重點(diǎn)”的精準(zhǔn)穿透力。
Yuan 3.0 Ultra引入的局部過濾注意力機(jī)制(Localized Filtering-based Attention,LFA),正是為此而生。它通過強(qiáng)化對(duì)核心語(yǔ)義的聚焦,精準(zhǔn)過濾無(wú)效注意力干擾,使模型在處理復(fù)雜文檔時(shí),不再被噪聲信息誤導(dǎo)。這種對(duì)“有效信息”的聚焦能力,讓OpenClaw這樣的Agent在執(zhí)行具體任務(wù)時(shí),能夠真正理解“該看什么”“該忽略什么”,從而實(shí)現(xiàn)“眼睛”與“大腦”的協(xié)同進(jìn)化。
總的來(lái)說,這三重“祛魅”共同指向的,正是Yuan 3.0 Ultra的核心主張:有效智能。站在企業(yè)的視角,“有效智能”不是一句口號(hào),而是可以量化的ROI,接下來(lái)可以用更低的成本投入來(lái)獲取更好的AI智能服務(wù)。這意味著,企業(yè)不再需要為“聽起來(lái)很?!钡膮?shù)買單,而是為“用得上”的智能付費(fèi)。
大模型競(jìng)爭(zhēng)的下半場(chǎng)已經(jīng)開啟了
隨著市場(chǎng)對(duì)“有效智能”的聚焦,就意味著大模型競(jìng)爭(zhēng)的下半場(chǎng)已經(jīng)拉開序幕。那么,當(dāng)頭部廠商紛紛收緊模型權(quán)限、構(gòu)建封閉生態(tài)時(shí),YuanLab.ai團(tuán)隊(duì)卻選擇以開放姿態(tài)貢獻(xiàn)出萬(wàn)億級(jí)核心模型,其背后的本質(zhì)則是在參與定義大模型競(jìng)爭(zhēng)的下半場(chǎng)。
回顧上半場(chǎng),核心是“參數(shù)競(jìng)賽”——誰(shuí)先達(dá)到千億、萬(wàn)億,誰(shuí)就是技術(shù)領(lǐng)先者。誰(shuí)在榜單上刷出更高分?jǐn)?shù),誰(shuí)就能獲得資本和市場(chǎng)的追捧。
這一階段的邏輯簡(jiǎn)單直接,但也迅速觸及天花板——參數(shù)堆砌的邊際收益遞減,而邊際成本(算力、能耗、部署難度)卻在指數(shù)級(jí)上升。2025年底開始,越來(lái)越多的從業(yè)者意識(shí)到,單純比拼參數(shù)規(guī)模,已經(jīng)難以為繼。
展望下半場(chǎng),核心則是“效率競(jìng)賽”——誰(shuí)能用更少的算力實(shí)現(xiàn)同等的智能,誰(shuí)能用更可控的成本支撐復(fù)雜的Agent任務(wù),誰(shuí)才是真正的產(chǎn)業(yè)賦能者。這場(chǎng)競(jìng)賽不再有簡(jiǎn)單的量化指標(biāo),而是考驗(yàn)對(duì)模型架構(gòu)的深刻理解、對(duì)算法效率的系統(tǒng)優(yōu)化、對(duì)企業(yè)場(chǎng)景的精準(zhǔn)適配。
在下半場(chǎng),智能的純度,遠(yuǎn)比參數(shù)的個(gè)數(shù)更重要;思考的效率,遠(yuǎn)比思考的長(zhǎng)度更值錢。由此,Yuan 3.0 Ultra通過LAEP、RIRM、LFA等創(chuàng)新,系統(tǒng)性地解答了“智能的效率”這一核心命題,為行業(yè)樹立了有效智能的新標(biāo)桿。
更深層看,Yuan 3.0 Ultra開源的戰(zhàn)略價(jià)值還在于,為中小企業(yè)、研究機(jī)構(gòu)和行業(yè)開發(fā)者提供了一個(gè)旗艦級(jí)、可定制、不鎖死的模型底座選擇?,F(xiàn)如今,開發(fā)者們已經(jīng)可以在github項(xiàng)目開源地址https://github.com/Yuan-lab-LLM/Yuan3.0獲取相應(yīng)的能力。
當(dāng)OpenClaw這樣的Agent框架日益成熟,企業(yè)最需要的恰恰是一個(gè)能夠深度適配自身業(yè)務(wù)且成本可控的“大腦”。Yuan 3.0 Ultra的開源,本質(zhì)上是在為下一波Agent應(yīng)用大爆發(fā)鋪設(shè)基礎(chǔ)設(shè)施——讓所有想要“養(yǎng)龍蝦”的企業(yè)甚至是個(gè)人,都能負(fù)擔(dān)得起一個(gè)聰明的大腦。
結(jié)語(yǔ)
2026年,當(dāng)“養(yǎng)龍蝦”成為全民話題,當(dāng)Agent開始真正進(jìn)入千行百業(yè),我們比任何時(shí)候都更需要回答那個(gè)根本問題:什么樣的智能,才是值得企業(yè)付費(fèi)的智能?
答案是,有效的智能。當(dāng)行業(yè)終于意識(shí)到,真正的智能,不是無(wú)限燃燒算力的能力,而是善用算力的智慧——這時(shí)候,大模型的下半場(chǎng)就算真正開始了。新的增長(zhǎng)邏輯,正在被重新定義,并主導(dǎo)下半場(chǎng)的競(jìng)爭(zhēng)。
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表DoNews專欄的立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請(qǐng)聯(lián)系idonews@donews.com)