<output id="4vbn9"><samp id="4vbn9"></samp></output><ul id="4vbn9"></ul>
  • <button id="4vbn9"><rp id="4vbn9"></rp></button>

    <label id="4vbn9"></label><rp id="4vbn9"></rp>
    <menuitem id="4vbn9"><tt id="4vbn9"><tfoot id="4vbn9"></tfoot></tt></menuitem>

      
      

      <th id="4vbn9"></th>
      国产av综合色高清自拍,国内久久人妻风流av免费,亚洲最大天堂在线看视频,国产成人午夜福利在线播放 ,在线看高清中文字幕一区,性色av不卡一区二区三区,少妇被日自拍黄色三级网络 ,国产伦精品一区二区三区

      報(bào)告服務(wù)熱線400-068-7188

      英偉達(dá)最新研究:小模型才是智能體的未來!

      分享到:
      20 直面派 ? 2025-08-05 17:51:22  來源:直面AI E4829G0

      作者|胡潤 來源|直面AI(ID:faceaibang)

      英偉達(dá)研究院和佐治亞理工大學(xué)的研究人員最近發(fā)表了一篇論文,拋出了一個(gè)非共識(shí)的觀點(diǎn):

      小語言模型(SLM)才是AI智能體的未來,而不是那些龐大的大型語言模型。

      https://arxiv.org/abs/2506.02153v1

      作者核心理由主要是以下三點(diǎn):

      首先,SLM已經(jīng)足夠強(qiáng)大,能處理AI智能體中大多數(shù)重復(fù)、專一的任務(wù);其次,它們天生更適合智能體系統(tǒng)的架構(gòu),靈活且易集成;最后,從經(jīng)濟(jì)角度看,SLM更省錢、更高效,能大幅降低AI運(yùn)行成本。

      想象一下,AI智能體系統(tǒng)就像一個(gè)虛擬團(tuán)隊(duì),能自動(dòng)分解任務(wù)、調(diào)用工具(比如瀏覽器或代碼編輯器),最終解決問題。目前,大多數(shù)AI智能體都依賴LLM作為“大腦”,因?yàn)長LM聊天能力強(qiáng)、知識(shí)廣博,能處理各種復(fù)雜問題。

      論文指出,2024年AI智能體市場(chǎng)已達(dá)52億美元,預(yù)計(jì)到2034年飆升至2000億美元,企業(yè)中超過一半已經(jīng)在用。但問題來了:AI智能體的任務(wù)往往重復(fù)單一,比如“檢查郵件”“生成報(bào)告”,用LLMs這種“全能選手”來干這些活,就好像用超級(jí)計(jì)算機(jī)玩掃雷,開蘭博基尼送披薩——過于浪費(fèi)資源。

      而且不單是浪費(fèi),智能體系統(tǒng)任務(wù)的特點(diǎn)也使得小模型能更好的適配智能體生態(tài),從而更有可能交付出更符合要求的結(jié)果。

      因?yàn)楸举|(zhì)上AI智能體不是聊天機(jī)器人,而是“工具箱+大腦”的系統(tǒng)。SLM小巧,訓(xùn)練/微調(diào)成本低(幾小時(shí)GPU就行),易適應(yīng)新需求(如新法規(guī))。這帶來“民主化”,從而能讓更多人能開發(fā)智能體,減少偏見,促進(jìn)創(chuàng)新。

      作者指出,智能體任務(wù)只用LLM的一小部分技能,如格式嚴(yán)格的工具調(diào)用。而AI智能體系統(tǒng)天然異構(gòu)就利于混用模型,主智能體用LLM,子任務(wù)用SLM。

      而如果大量采用SLM,還能發(fā)揮數(shù)據(jù)收集優(yōu)勢(shì):智能體運(yùn)行時(shí),自然產(chǎn)生的專精數(shù)據(jù),可以用來微調(diào)SLM,形成良性循環(huán),從而使得結(jié)果越來越好。

      01

      什么是SLM

      論文對(duì)SLM給出了一個(gè)實(shí)用的定義:

      SLMs:能裝進(jìn)普通消費(fèi)電子設(shè)備(如手機(jī)或筆記本),推理速度快,能實(shí)時(shí)服務(wù)一個(gè)用戶的智能體請(qǐng)求。目前,10億參數(shù)以下的模型可以算是SLM。而其他更大的模型,通常需要云端服務(wù)器支持。

      為什么這樣定義?SLM像“便攜大腦”,適合終端部署;LLM像“宇宙級(jí)超級(jí)電腦”,但延遲高、成本大。

      作者給了一個(gè)很極端但是又很有意思的例子做比喻:如果AI無限大,會(huì)受光速限制沒法實(shí)時(shí)互動(dòng);無限小,又太弱沒法做事。人類大腦就是平衡點(diǎn),SLM就像人類大腦這個(gè)平衡點(diǎn),高效,易于迭代。

      作者對(duì)比兩種類型的智能體結(jié)構(gòu):

      在左側(cè),一個(gè)語言模型與用戶聊天并直接觸發(fā)每個(gè)工具,因此整個(gè)流程都位于該單個(gè)模型中。

      在右側(cè),一個(gè)小型控制器程序處理工具調(diào)用,讓模型專注于對(duì)話或特定推理。

      這種拆分使得為大多數(shù)調(diào)用插入小型語言模型變得容易,節(jié)省成本,并將大型模型僅保留用于不太常見的開放式問答或者推理步驟。

      論文表示,最前沿的小模型如Phi-3和Hymba,在工具使用、常識(shí)推理和指令遵循方面,性能足以媲美30B到70B的大模型,但在實(shí)際工作流中的計(jì)算量卻降低了10-30倍。

      英偉達(dá)還對(duì)三款真實(shí)世界的AI智能體進(jìn)行了測(cè)試,發(fā)現(xiàn):

      MetaGPT:60%的任務(wù)可以用SLM取代

      Open Operator:40%的任務(wù)可以用SLM取代

      Cradle(圖形界面自動(dòng)化):70%的任務(wù)可以用SLM取代

      02

      SLM那么好,為什么還要用LLM呢?

      論文認(rèn)為AI智能體沒有大規(guī)模利用SLM的主要原因還是因?yàn)槁窂揭蕾嚒?/p>

      大量資金(高達(dá)570億美元)被投入了中心化的大模型基礎(chǔ)設(shè)施,團(tuán)隊(duì)傾向于重復(fù)使用付費(fèi)設(shè)置,而不是轉(zhuǎn)向更輕的本地選項(xiàng),短期內(nèi)難以轉(zhuǎn)變。

      行業(yè)內(nèi)對(duì)「大即是好」的偏見依然強(qiáng)烈。對(duì)小型模型的研究一直在追逐用于大型模型的相同廣泛基準(zhǔn),而這些測(cè)試都體現(xiàn)不出于小模型在智能體任務(wù)上的優(yōu)秀表現(xiàn)。

      SLM幾乎沒有GPT-4那樣的熱度,小模型也不像讓大模型那樣經(jīng)歷了一輪一輪的營銷熱潮,因此許多構(gòu)建者從未嘗試過更便宜更合理的路線。

      對(duì)此,論文認(rèn)為如果研究任務(wù)員和智能體搭建者能夠做到一下幾點(diǎn),那么將能很好的發(fā)揮SLM在智能體方面的潛力。

      -收集梳理數(shù)據(jù)

      -針對(duì)特定任務(wù)微調(diào)SLM

      -把任務(wù)進(jìn)行聚類并建立SLM的“技能”

      03

      華人作者介紹

      SHIZHE DIAO

      根據(jù)他領(lǐng)英公開的資料,他先后就讀于北京師范大學(xué),香港科技大學(xué),曾經(jīng)在UIUC做過訪問學(xué)者。

      曾經(jīng)在字節(jié)AI LAB做過實(shí)習(xí),2024年加入英偉達(dá)擔(dān)任研究科學(xué)家。

      Xin Dong

      根據(jù)他的個(gè)人博客,他博士畢業(yè)于哈佛大學(xué)。曾經(jīng)在騰訊,Meta等公司有過工作和實(shí)習(xí)經(jīng)歷。

      Yonggan Fu

      根據(jù)他的領(lǐng)英公開資料,他本科畢業(yè)于中國科學(xué)技術(shù)大學(xué),在萊斯大學(xué)和喬治亞理工完成了自己的博士學(xué)業(yè)。

      在Meta和英偉達(dá)實(shí)習(xí)過,現(xiàn)為英偉達(dá)研究科學(xué)家。

      編者按:本文轉(zhuǎn)載自微信公眾號(hào):直面AI(ID:faceaibang),作者:胡潤 

      本文來源直面AI,內(nèi)容僅代表作者本人觀點(diǎn),不代表前瞻網(wǎng)的立場(chǎng)。本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。(若存在內(nèi)容、版權(quán)或其它問題,請(qǐng)聯(lián)系:service@qianzhan.com) 品牌合作與廣告投放請(qǐng)聯(lián)系:0755-33015062 或 hezuo@qianzhan.com

      p29 q0 我要投稿

      分享:
      標(biāo)簽: 英偉達(dá) 小模型

      品牌、內(nèi)容合作請(qǐng)點(diǎn)這里:尋求合作 ››

      前瞻經(jīng)濟(jì)學(xué)人

      專注于中國各行業(yè)市場(chǎng)分析、未來發(fā)展趨勢(shì)等。掃一掃立即關(guān)注。

      前瞻產(chǎn)業(yè)研究院

      中國產(chǎn)業(yè)咨詢領(lǐng)導(dǎo)者,專業(yè)提供產(chǎn)業(yè)規(guī)劃、產(chǎn)業(yè)申報(bào)、產(chǎn)業(yè)升級(jí)轉(zhuǎn)型、產(chǎn)業(yè)園區(qū)規(guī)劃、可行性報(bào)告等領(lǐng)域解決方案,掃一掃關(guān)注。

      前瞻數(shù)據(jù)庫
      企查貓
      前瞻經(jīng)濟(jì)學(xué)人App二維碼

      掃一掃下載APP

      與資深行業(yè)研究員/經(jīng)濟(jì)學(xué)家互動(dòng)交流讓您成為更懂趨勢(shì)的人

      研究員周關(guān)注榜

      企查貓(企業(yè)查詢寶)App
      ×

      掃一掃
      下載《前瞻經(jīng)濟(jì)學(xué)人》APP提問

       
      在線咨詢
      ×
      在線咨詢

      項(xiàng)目熱線 0755-33015070

      AAPP
      前瞻經(jīng)濟(jì)學(xué)人APP下載二維碼

      下載前瞻經(jīng)濟(jì)學(xué)人APP

      關(guān)注我們
      前瞻產(chǎn)業(yè)研究院微信號(hào)

      掃一掃關(guān)注我們

      我要投稿

      ×
      J
      主站蜘蛛池模板: 国产免费网站看v片元遮挡| 亚洲欧美国产日韩天堂区| 久久亚洲国产成人亚| 性色在线视频精品| 日韩深夜福利视频在线观看 | 久青草国产在视频在线观看| 松江区| 国产jizzjizz视频| 国产日韩AV免费无码一区二区三区| 日韩人妻无码一区二区三区99 | 精品国产一区二区三区久久女人| 免费无码va一区二区三区| 日韩精品人妻黄色一级片| 激情综合网激情综合| 野花社区www视频日本| 亚洲av永久无码精品天堂久久| 国内精品免费久久久久电影院97| 国产一区二区黄色激情片| 免费无码无遮挡裸体视频在线观看| 日夜啪啪一区二区三区| 猫咪AV成人永久网站在线观看| 色悠久久网国产精品99| 亚洲日韩在线中文字幕第一页 | 欧美不卡无线在线一二三区观| 最新国产精品拍自在线播放| 四虎国产精品成人免费久久| 九九在线精品国产| 高级艳妇交换俱乐部小说| 日韩午夜福利视频在线观看| 97在线视频人妻无码| 人妻中文字幕精品系列| 亚洲熟妇熟女久久精品综合| 国产精品毛片久久久久久久| 久久婷婷五月综合97色直播| 日韩欧美亚洲综合久久| 无码国产精品一区二区av| 欧美交a欧美精品喷水| 天堂a无码a无线孕交| 中文有无人妻vs无码人妻激烈| 91精品国产色综合久久| 国产精品国三级国产av|