最近OpenClaw可以說是火遍了大江南北。各大廠商都說自己的模型如何支持小龍蝦,唯獨(dú)沒人推薦ChatGPT。
事實(shí)上OpenAI才收購了OpenClaw。
原因就一個(gè)“貴”。
讓AI幫你完成一個(gè)稍微復(fù)雜的任務(wù),比如自動化處理一批客戶郵件,背后可能要調(diào)用模型幾十上百次:理解意圖、檢索信息、生成草稿、校對潤色、逐封發(fā)送……如果每一步都調(diào)用滿血版GPT-5.4,一輪操作下來,飼料費(fèi)(token)比蝦本身還貴。
特別是隨著OpenClaw這類agent框架的爆發(fā),AI的工作模式已經(jīng)發(fā)生了根本性轉(zhuǎn)變:從前我們向AI提問,它盯著問題想很久,然后吐出一長串文字;現(xiàn)在AI面對一個(gè)復(fù)雜任務(wù),要將其拆解成微小步驟分步推進(jìn)。每一步都調(diào)用旗艦大模型,不僅延遲讓人崩潰,成本也會高到離譜。
在這種背景下,OpenAI正式發(fā)布GPT-5.4 mini與nano兩款小型模型,并宣稱其為公司“迄今最強(qiáng)大的小型模型”。
麻雀雖小五臟俱全,不要小瞧這兩個(gè)小玩意,不僅GPT-5.4核心的優(yōu)勢和能力它們繼承了下來,同時(shí)還更快、更省資源,并且適合于大批量、高頻率的AI任務(wù)調(diào)用。
OpenAI貌似是覺得mini還不夠小,所以做出了更輕量的nano。
nano是GPT-5.4最輕量、最快速的版本,專為對速度和成本要求極高的任務(wù)而設(shè)計(jì)。
事實(shí)就是,用單一模型處理所有事務(wù)性價(jià)比太低,經(jīng)常陷入高射炮打蚊子的境況,不如調(diào)整成大模型決定任務(wù)方向,小模型進(jìn)行大規(guī)??焖賵?zhí)行的方案。
OpenAI自家的Codex就是這么干的。
一個(gè)主模型負(fù)責(zé)理解任務(wù)意圖、拆解步驟,然后調(diào)度mini/nano級別的子agent去執(zhí)行具體的代碼修改、測試運(yùn)行、結(jié)果校驗(yàn),每個(gè)子任務(wù)只消耗極低的成本。
大模型就像坐鎮(zhèn)中軍、運(yùn)籌帷幄的主帥,只抓頂層戰(zhàn)略、調(diào)度全局資源。小模型則是無數(shù)支精銳輕騎,身形輕便、行動迅捷、批量奔赴前線,專一完成細(xì)分任務(wù)。
01
OpenAI為什么這么做
mini和nano在價(jià)格上確實(shí)“mini”以及“nano”。要理解OpenAI為什么押注輕量化,先看看這兩款模型到底便宜到什么程度。
mini和nano均支持 400k tokens 的上下文窗口。在輸入價(jià)格上,GPT-5.4旗艦版是2.5 美元/百萬token,mini版是0.75美元/百萬 token,nano版更是夸張,僅0.2美元/百萬token,輸入成本僅為旗艦?zāi)P虶PT-5.4的8%。
而輸出價(jià)格上,GPT-5.4是15美元/百萬 token,mini版約為它的1/3(4.5 美元),nano版約為它的1/12(1.25 美元)。
換句話說,OpenAI用戶們的賬單直接砍到了零頭。
價(jià)格只是表象,真正驅(qū)動OpenAI做這件事的,是整個(gè)行業(yè)的使用趨勢已經(jīng)發(fā)生了根本性轉(zhuǎn)向。
輕量化小模型主要有調(diào)用成本低、響應(yīng)快這兩大特征,不少證據(jù)表明小模型已經(jīng)成為當(dāng)前AI落地最具性價(jià)比、最具增長潛力的選擇。
在OpenRouter本月度最受歡迎LLM排行榜前十中,輕量化模型占到了6個(gè)席位,它們參數(shù)量普遍集中在數(shù)十億至數(shù)百億級別,和Claude Opus這類動輒數(shù)千億甚至萬億參數(shù)的通用旗艦大模型形成鮮明的差異。
榜單Top 2席位被輕量化小模型包攬,第1名MiniMax M2.5以8.29T tokens的調(diào)用量斷層領(lǐng)跑全榜,月度漲幅高達(dá) 476%;第2名Google Gemini 3 Flash Preview,調(diào)用量也達(dá)到4.24T tokens,遠(yuǎn)超多數(shù)通用旗艦大模型。
Hugging Face Hub的模型下載量統(tǒng)計(jì)同樣印證了這一趨勢:92.48%的下載量來自少于10億參數(shù)的模型,86.33% 為5億以下,69.83% 為2億以下。
大模型也進(jìn)入了薄利多銷的時(shí)代。
1B+參數(shù)量的模型,即便包含多款輿論熱度極高的開源大模型,整體下載占比僅為7.52%,不足輕量化模型的十分之一,這說明大模型的高關(guān)注度,似乎并未轉(zhuǎn)化為真實(shí)的落地與采用。
從OpenAI自身的商業(yè)賬本來看,做小模型更是一道必答題。
今年2月底,OpenAI宣布ChatGPT全球每周活躍用戶已突破9億,付費(fèi)用戶約5000 萬,付費(fèi)轉(zhuǎn)化率僅約5%左右,絕大多數(shù)用戶仍停留在免費(fèi)版本。這也成為其未來商業(yè)化最核心的增長空間。
絕大多數(shù)的C端付費(fèi)用戶,核心使用場景是日常對話、文案潤色、信息檢索、輕量代碼編寫等高頻輕量需求。
這類場景完全不需要GPT-5.4這類旗艦大模型的極限復(fù)雜推理能力,百億級以內(nèi)的輕量化小模型足以覆蓋大部分需求,同時(shí)又能提供毫秒級響應(yīng)、無排隊(duì)等待的使用體驗(yàn),完美匹配絕大多數(shù)用戶的核心訴求。
說了這么多“為什么”,接下來看看這兩款模型到底交出了怎樣的答卷——畢竟,飼料便宜了,蝦的個(gè)頭要是也縮水了,那就不叫降本增效,叫偷工減料。
02
mini、nano能力幾何
mini和nano的優(yōu)勢就只是小和便宜嗎?
No No No
根據(jù)OpenAI官網(wǎng)的一系列跑分測試,可以說它們能力表現(xiàn)也很突出。
在業(yè)內(nèi)公認(rèn)最權(quán)威的AI程序員測試SWE-bench Pro 中,GPT-5.4 mini的準(zhǔn)確率達(dá)到了54.4%,表現(xiàn)極具殺傷力,逼近滿血版GPT-5.4的57.7%。
GPT-5.4 nano的準(zhǔn)確率為52.4%,再考慮到它極低的成本,非常適合作為快速迭代的代碼審查和輔助子agent。
以下兩張圖表看得更直觀,橫軸分別代表模型的響應(yīng)時(shí)長和所用成本,縱軸均表示模型在任務(wù)中的準(zhǔn)確率。
GPT-5.4雖然準(zhǔn)確率穩(wěn)居第一,但是在橫軸上卻延伸了太遠(yuǎn),也就是不僅思考久,燒的錢還多。而nano和mini的折線則整體居于坐標(biāo)圖左側(cè),標(biāo)志了它們極高的性價(jià)比。
它們只是犧牲了一點(diǎn)點(diǎn)終極的邏輯上限,就換來了極快的響應(yīng)速度和極低的成本。
對此,不少網(wǎng)友戲稱:小龍蝦的飼料費(fèi)終于被打下來了。
的確,mini和nano未來可能會成為養(yǎng)蝦的主流API選擇。
在OSWorld-Verified(真實(shí)電腦環(huán)境操作測試)中,GPT-5.4 mini達(dá)到了72.1%的準(zhǔn)確率,幾乎追平了滿血旗艦版的75%。
這項(xiàng)測試主要是讓AI像人一樣,通過看顯示器、動鼠標(biāo)、敲鍵盤來使用一臺真的電腦,包括使用Chrome、Office、VS Code等軟件。
這才是OpenClaw等agent玩家最看重的指標(biāo)。
過去讓AI操控電腦,AI經(jīng)常會瞎點(diǎn)或者反應(yīng)遲鈍。mini版本的這個(gè)高分意味著,它識別按鈕、滑塊、輸入框的精度極高,在一些自動化任務(wù)上可以更加得心應(yīng)手。
然而,也不是所有場景都適合用小模型。
nano模型在OSWorld-Verified上的得分僅為39.0%,甚至低于上一代GPT-5 mini的42.0%。
這意味著在需要精細(xì)操控電腦界面的復(fù)雜任務(wù)上,nano還力有不逮。
同樣,對于需要深度推理、長鏈條邏輯的高難度任務(wù),旗艦版GPT-5.4仍然不可替代。
小模型的價(jià)值不在于取代大模型,而在于和大模型搭配使用——把對的模型放在對的位置,才是子agent架構(gòu)真正的精髓。
這也恰恰是nano和mini發(fā)布的深層意義,它們不是來搶旗艦版飯碗的,而是來幫旗艦版分擔(dān)那些“高射炮打蚊子”的活兒。
當(dāng)大模型不再需要親自處理每一個(gè)瑣碎步驟,整個(gè)系統(tǒng)的效率和成本結(jié)構(gòu)都會發(fā)生質(zhì)變。
OpenAI想打的不是一場簡單的價(jià)格戰(zhàn),OpenAI內(nèi)心OS是這樣的:“我可以每個(gè)token少賺你點(diǎn)錢,但是我要讓你多用我的小模型,把總收入抬上去?!?/p>
典型的薄利多銷。
過去“便宜”是國產(chǎn)模型的護(hù)城河,可是這道護(hù)城河正在被填平。對普通開發(fā)者和企業(yè)用戶而言,AI可能很快就會變成各行各業(yè)用得起、跑得快的新基礎(chǔ)設(shè)施。
小龍蝦的飼料費(fèi)打下來了,養(yǎng)蝦的門檻也在悄悄降低。接下來的問題是:誰能養(yǎng)出最肥的蝦?
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)