英偉達(dá)最新研究:小模型才是智能體的未來!
作者|胡潤 來源|直面AI(ID:faceaibang)
英偉達(dá)研究院和佐治亞理工大學(xué)的研究人員最近發(fā)表了一篇論文,拋出了一個(gè)非共識(shí)的觀點(diǎn):
小語言模型(SLM)才是AI智能體的未來,而不是那些龐大的大型語言模型。

https://arxiv.org/abs/2506.02153v1
作者核心理由主要是以下三點(diǎn):
首先,SLM已經(jīng)足夠強(qiáng)大,能處理AI智能體中大多數(shù)重復(fù)、專一的任務(wù);其次,它們天生更適合智能體系統(tǒng)的架構(gòu),靈活且易集成;最后,從經(jīng)濟(jì)角度看,SLM更省錢、更高效,能大幅降低AI運(yùn)行成本。

想象一下,AI智能體系統(tǒng)就像一個(gè)虛擬團(tuán)隊(duì),能自動(dòng)分解任務(wù)、調(diào)用工具(比如瀏覽器或代碼編輯器),最終解決問題。目前,大多數(shù)AI智能體都依賴LLM作為“大腦”,因?yàn)長LM聊天能力強(qiáng)、知識(shí)廣博,能處理各種復(fù)雜問題。
論文指出,2024年AI智能體市場(chǎng)已達(dá)52億美元,預(yù)計(jì)到2034年飆升至2000億美元,企業(yè)中超過一半已經(jīng)在用。但問題來了:AI智能體的任務(wù)往往重復(fù)單一,比如“檢查郵件”“生成報(bào)告”,用LLMs這種“全能選手”來干這些活,就好像用超級(jí)計(jì)算機(jī)玩掃雷,開蘭博基尼送披薩——過于浪費(fèi)資源。
而且不單是浪費(fèi),智能體系統(tǒng)任務(wù)的特點(diǎn)也使得小模型能更好的適配智能體生態(tài),從而更有可能交付出更符合要求的結(jié)果。
因?yàn)楸举|(zhì)上AI智能體不是聊天機(jī)器人,而是“工具箱+大腦”的系統(tǒng)。SLM小巧,訓(xùn)練/微調(diào)成本低(幾小時(shí)GPU就行),易適應(yīng)新需求(如新法規(guī))。這帶來“民主化”,從而能讓更多人能開發(fā)智能體,減少偏見,促進(jìn)創(chuàng)新。
作者指出,智能體任務(wù)只用LLM的一小部分技能,如格式嚴(yán)格的工具調(diào)用。而AI智能體系統(tǒng)天然異構(gòu)就利于混用模型,主智能體用LLM,子任務(wù)用SLM。
而如果大量采用SLM,還能發(fā)揮數(shù)據(jù)收集優(yōu)勢(shì):智能體運(yùn)行時(shí),自然產(chǎn)生的專精數(shù)據(jù),可以用來微調(diào)SLM,形成良性循環(huán),從而使得結(jié)果越來越好。
01
什么是SLM
論文對(duì)SLM給出了一個(gè)實(shí)用的定義:
SLMs:能裝進(jìn)普通消費(fèi)電子設(shè)備(如手機(jī)或筆記本),推理速度快,能實(shí)時(shí)服務(wù)一個(gè)用戶的智能體請(qǐng)求。目前,10億參數(shù)以下的模型可以算是SLM。而其他更大的模型,通常需要云端服務(wù)器支持。
為什么這樣定義?SLM像“便攜大腦”,適合終端部署;LLM像“宇宙級(jí)超級(jí)電腦”,但延遲高、成本大。
作者給了一個(gè)很極端但是又很有意思的例子做比喻:如果AI無限大,會(huì)受光速限制沒法實(shí)時(shí)互動(dòng);無限小,又太弱沒法做事。人類大腦就是平衡點(diǎn),SLM就像人類大腦這個(gè)平衡點(diǎn),高效,易于迭代。
作者對(duì)比兩種類型的智能體結(jié)構(gòu):

在左側(cè),一個(gè)語言模型與用戶聊天并直接觸發(fā)每個(gè)工具,因此整個(gè)流程都位于該單個(gè)模型中。
在右側(cè),一個(gè)小型控制器程序處理工具調(diào)用,讓模型專注于對(duì)話或特定推理。
這種拆分使得為大多數(shù)調(diào)用插入小型語言模型變得容易,節(jié)省成本,并將大型模型僅保留用于不太常見的開放式問答或者推理步驟。
論文表示,最前沿的小模型如Phi-3和Hymba,在工具使用、常識(shí)推理和指令遵循方面,性能足以媲美30B到70B的大模型,但在實(shí)際工作流中的計(jì)算量卻降低了10-30倍。
英偉達(dá)還對(duì)三款真實(shí)世界的AI智能體進(jìn)行了測(cè)試,發(fā)現(xiàn):
MetaGPT:60%的任務(wù)可以用SLM取代
Open Operator:40%的任務(wù)可以用SLM取代
Cradle(圖形界面自動(dòng)化):70%的任務(wù)可以用SLM取代
02
SLM那么好,為什么還要用LLM呢?
論文認(rèn)為AI智能體沒有大規(guī)模利用SLM的主要原因還是因?yàn)槁窂揭蕾嚒?/p>
大量資金(高達(dá)570億美元)被投入了中心化的大模型基礎(chǔ)設(shè)施,團(tuán)隊(duì)傾向于重復(fù)使用付費(fèi)設(shè)置,而不是轉(zhuǎn)向更輕的本地選項(xiàng),短期內(nèi)難以轉(zhuǎn)變。
行業(yè)內(nèi)對(duì)「大即是好」的偏見依然強(qiáng)烈。對(duì)小型模型的研究一直在追逐用于大型模型的相同廣泛基準(zhǔn),而這些測(cè)試都體現(xiàn)不出于小模型在智能體任務(wù)上的優(yōu)秀表現(xiàn)。
SLM幾乎沒有GPT-4那樣的熱度,小模型也不像讓大模型那樣經(jīng)歷了一輪一輪的營銷熱潮,因此許多構(gòu)建者從未嘗試過更便宜更合理的路線。
對(duì)此,論文認(rèn)為如果研究任務(wù)員和智能體搭建者能夠做到一下幾點(diǎn),那么將能很好的發(fā)揮SLM在智能體方面的潛力。
-收集梳理數(shù)據(jù)
-針對(duì)特定任務(wù)微調(diào)SLM
-把任務(wù)進(jìn)行聚類并建立SLM的“技能”
03
華人作者介紹
SHIZHE DIAO
根據(jù)他領(lǐng)英公開的資料,他先后就讀于北京師范大學(xué),香港科技大學(xué),曾經(jīng)在UIUC做過訪問學(xué)者。

曾經(jīng)在字節(jié)AI LAB做過實(shí)習(xí),2024年加入英偉達(dá)擔(dān)任研究科學(xué)家。

Xin Dong
根據(jù)他的個(gè)人博客,他博士畢業(yè)于哈佛大學(xué)。曾經(jīng)在騰訊,Meta等公司有過工作和實(shí)習(xí)經(jīng)歷。

Yonggan Fu
根據(jù)他的領(lǐng)英公開資料,他本科畢業(yè)于中國科學(xué)技術(shù)大學(xué),在萊斯大學(xué)和喬治亞理工完成了自己的博士學(xué)業(yè)。

在Meta和英偉達(dá)實(shí)習(xí)過,現(xiàn)為英偉達(dá)研究科學(xué)家。

編者按:本文轉(zhuǎn)載自微信公眾號(hào):直面AI(ID:faceaibang),作者:胡潤

前瞻經(jīng)濟(jì)學(xué)人
專注于中國各行業(yè)市場(chǎng)分析、未來發(fā)展趨勢(shì)等。掃一掃立即關(guān)注。

























