金磊 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
神秘模型Elephant的面紗,終于被揭開了。
事情是這樣的。
前一陣子OpenRouters在自家官方上提到了一個(gè)神秘模型Elephant Alpha,并且給到的評(píng)價(jià)是這樣的:
僅100B大小,在同規(guī)模模型里是SOTA,還巨省Token。
![]()
話題一出,立即引來不少網(wǎng)友們的圍觀,他們紛紛開始猜測(cè)這又是哪家的模型。
不過非常微妙的一點(diǎn)是,這次網(wǎng)友們猜測(cè)的對(duì)象,統(tǒng)一地指向了中國(guó)大模型:
是MiniMax、Kimi、DeepSeek,還是什么新黑馬?
![]()
量子位獨(dú)家獲悉了答案,只能說網(wǎng)友們猜對(duì)了一半——
確實(shí)是來自中國(guó)的模型;但玩家并未在他們給的選項(xiàng)里。
因?yàn)檫@頭「大象」,出自螞蟻Inclusion AI 團(tuán)隊(duì)之手。
很反差的一點(diǎn)是,「大象」不大,自帶的只是100B大小、256K上下文窗口、32K輸出的敏捷屬性。
并且在整體體驗(yàn)下來之后,很直觀的感受,就是它有點(diǎn)國(guó)產(chǎn)版Grok 4 Fast的味道,天生干活圣體。
來,咱們這就展開一波深度實(shí)測(cè)~
![]()
干活圣體,很省Token
針對(duì)「大象」的實(shí)測(cè),我們是在OpenRouters上的網(wǎng)頁(yè)端來展開。
并且會(huì)取日常工作較高頻的工作內(nèi)容來進(jìn)行測(cè)試,只為證明一件事:「大象」干活,到底行不行。
![]()
實(shí)測(cè)1:修Bug沒有多余廢話
對(duì)于程序員群里來說,AI寫代碼已經(jīng)不是什么新鮮事了。
但現(xiàn)在比較頭疼的,就是怕AI唰唰唰地寫了幾百行代碼,一跑全報(bào)錯(cuò),再讓它改,它又給你唰唰唰地重新生成幾百行……
不僅效率低,還很費(fèi)Token。
為此,我們?cè)谶@個(gè)實(shí)測(cè)環(huán)節(jié)中給「大象」先安排了一個(gè)接地氣的任務(wù):
用HTML和原生JS寫一個(gè)帶表單校驗(yàn)的活動(dòng)報(bào)名頁(yè),要求包含姓名、手機(jī)號(hào)、郵箱,并且手機(jī)號(hào)必須符合中國(guó)大陸格式。
![]()
△原速度展示
可以看到,「大象」在思考片刻后,以極快的速度將代碼給生成了出來。
把整段代碼保存為.html文件后,也是可以成功運(yùn)行。
![]()
但這并不是重點(diǎn),重點(diǎn)在于「大象」是否做到修復(fù)。
于是乎,我們接下來給剛才生成好的代碼來一波投毒的操作:
把JS邏輯里定義提交按鈕的變量 const submitBtn = document.getElementById(‘submitBtn’) 直接刪掉。
![]()
如此投毒之后,控制臺(tái)必定會(huì)爆出 Uncaught ReferenceError: submitBtn is not defined 的錯(cuò)誤。
然后我們把這份代碼再喂給「大象」,并簡(jiǎn)單地附上一句:
運(yùn)行報(bào)錯(cuò)了,找不到變量。
![]()
不同于其它大模型,「大象」特別精準(zhǔn)地找到了問題所在,然后用極簡(jiǎn)的方式給出了解法。
也正因?yàn)檫@種沒有多余廢話的回答,直接省去了Token的無用消耗。
實(shí)測(cè)2:雜亂文檔,會(huì)抓重點(diǎn)
代碼生成和修復(fù)還只能說是程序員工作圈子里的任務(wù),但像會(huì)議內(nèi)容整理,幾乎是所有職場(chǎng)人都需要經(jīng)歷的事兒。
在這項(xiàng)測(cè)試中,我們特意準(zhǔn)備了一份大約3000字的會(huì)議紀(jì)要,里面充滿了口語化的表述,毫無意義的重復(fù)強(qiáng)調(diào)、部門之間關(guān)于排期的互相扯皮,甚至還有中途某人跑題聊起中午吃什么的外賣討論:
![]()
然后我們把文件丟給「大象」并附上一句Prompt:
忽略所有寒暄和跑題內(nèi)容。請(qǐng)基于這3000字,嚴(yán)格按照以下JSON 格式(包含:結(jié)論摘要、待辦清單及責(zé)任人、一封用于抄送全員的跟進(jìn)郵件草稿)輸出結(jié)果。
![]()
「大象」給出的整理結(jié)果可以說是一目了然。
在剔除了無用信息之后,嚴(yán)格按照Prompt要求的那樣,把會(huì)議內(nèi)容給呈現(xiàn)了出來。
或許單看「大象」的結(jié)果不夠明顯,我們?yōu)榇颂匾饽昧薌emini-2.5-Flash-Lite做了下對(duì)比:
![]()
正所謂沒有對(duì)比就沒有傷害。
Gemini-2.5-Flash-Lite雖然也是實(shí)現(xiàn)了Prompt里的結(jié)構(gòu),但很明顯一點(diǎn)就是,太長(zhǎng),也就意味著更多Token的消耗。
所以「大象」在會(huì)議整理任務(wù)上,Win Again。
實(shí)測(cè)3:Agent任務(wù),也是夠快
最后的實(shí)測(cè),我們來上一道硬菜——大火的Agent。
我們用「大象」來模擬一個(gè)輕量級(jí)的Agent Loop:
讀取一份包含四個(gè)月度數(shù)據(jù)的CSV銷售報(bào)表 → 計(jì)算季度同比(需要調(diào)用數(shù)學(xué)邏輯) → 寫一段簡(jiǎn)練的分析結(jié)論 → 自檢數(shù)字是否準(zhǔn)確。
![]()
從內(nèi)容上來看,「大象」先是對(duì)數(shù)據(jù)做了快速分析和推理,并給出了初步結(jié)論;而后又完成了自檢的工作,最終輸出最終結(jié)論。
但更重要的還是速度:只思考了10秒鐘、輸出2秒鐘。
由此可見,這個(gè)只有100B大小的「大象」,是真的做到了快、準(zhǔn)、省。
而這一點(diǎn),同樣體現(xiàn)在權(quán)威榜單的評(píng)測(cè)中。
作為開發(fā)者圈層公認(rèn)的模型測(cè)謊儀,AI BENCHY不看廠商宣傳跑分,只聚焦指令遵循、響應(yīng)速度、Token效率三大實(shí)戰(zhàn)指標(biāo)。
![]()
從AI BENCHY給出的結(jié)果來看,「大象」輸出Token維持在了2500左右,說明每一分錢的API算力,都用在了刀刃上。
平均響應(yīng)時(shí)間方面,「大象」平均時(shí)延被壓制在了1秒左右,而其它選手則均是10-30秒的水平。
并且在最重要的輸出質(zhì)量上,它的一致性分?jǐn)?shù)達(dá)到了9.6分(滿分10分)!
因此,不論是從實(shí)測(cè)的體驗(yàn),亦或是權(quán)威榜單的評(píng)測(cè)來看,「大象」已然是可以勝任日常絕大多數(shù)的工作了。
但也有不擅長(zhǎng)的事
正所謂人無完人、模無完模。
「大象」畢竟走的是一條快、準(zhǔn)、省的路線,所以它定然是在某些領(lǐng)域里有所妥協(xié)。
在我們的實(shí)測(cè)中,也發(fā)現(xiàn)了「大象」一些不太擅長(zhǎng)的工作。
例如復(fù)雜長(zhǎng)鏈規(guī)劃,就是其中之一:
幫我主導(dǎo)一個(gè)出海東南亞市場(chǎng)的戰(zhàn)略項(xiàng)目。請(qǐng)從市場(chǎng)調(diào)研開始,接著做競(jìng)品分析,然后給出渠道策略建議,最后幫我排一個(gè)半年的執(zhí)行甘特圖。
![]()
對(duì)于這個(gè)任務(wù),「大象」直言無法執(zhí)行。
因?yàn)樗鼪]有數(shù)據(jù)采集工具、沒有分析工具、沒有策略生成工具,也沒有項(xiàng)目管理工具。
所以對(duì)于這類任務(wù),我們不妨用大模型規(guī)劃 + 「大象」執(zhí)行的方式來操作。
再如,對(duì)于非常非常新的知識(shí),「大象」也可能會(huì)心有余而力不足。
![]()
以及要求生成React 18新特性或剛更新的SDK代碼時(shí),「大象」可能會(huì)基于舊知識(shí)產(chǎn)生API幻覺。
所以如果你有這方面的需求,可以在Prompt中注入最新文檔來解決。
最后,Prompt過于模糊,也會(huì)影響輸出的質(zhì)量。
例如跟「大象」說:
幫我寫個(gè)好看的網(wǎng)頁(yè)。
![]()
因此,在用「大象」的時(shí)候,我們還需切記,Prompt一定要細(xì)致、要有足夠的約束力。
Agent 時(shí)代,“快、好、省”的小模型同樣重要
其實(shí),在這個(gè)時(shí)間節(jié)點(diǎn)發(fā)布這樣一款主打智效比的模型,本身就是一種信號(hào)。
過去幾年時(shí)間里,AI圈似乎都在比拼誰的模型更大、誰的訓(xùn)練成本更貴、誰在榜單上刷的分更高。
但行業(yè)走到今天,做加法的人太多了,需要有人站出來做減法。
因?yàn)門oken浪費(fèi),已然成了行業(yè)高度重視的關(guān)鍵內(nèi)容之一。
《財(cái)經(jīng)》報(bào)道,全球企業(yè)級(jí)AI應(yīng)用中,約有50%的Token正在被浪費(fèi)。AI應(yīng)用從對(duì)話轉(zhuǎn)向執(zhí)行后,Agent在復(fù)雜多輪任務(wù)中會(huì)不斷累積歷史文件、對(duì)話記錄,大量冗余信息導(dǎo)致Token消耗指數(shù)級(jí)增長(zhǎng)。
每一塊錢都要花出響動(dòng),這是工程落地的鐵律。而踐行這條路線的,遠(yuǎn)不止百靈。
就在前不久,OpenAI連續(xù)發(fā)布了GPT-5.4 mini和GPT-5.4 nano兩款小型模型,專為高頻且對(duì)延遲敏感的任務(wù)設(shè)計(jì)。它們?cè)诒3至薌PT-5系列優(yōu)秀推理基因的前提下,實(shí)現(xiàn)了極高的吞吐量、極低的延遲和極具競(jìng)爭(zhēng)力的性價(jià)比。
谷歌則通過開源小模型Gemma 4,以低成本、高推理力打入低端AI市場(chǎng)。Gemma 4的參數(shù)規(guī)模僅為同智力水平大模型的約二十分之一,過去需要花費(fèi)上千萬GPU成本才能跑動(dòng)的模型,現(xiàn)在大概一張高階顯卡就能跑得動(dòng),成本差距將近十倍。
尤其是對(duì)于預(yù)算有限、算力資源匱乏、追求極致投入產(chǎn)出比的中小企業(yè)而言,無需為冗余Token支付高額算力成本,無需采購(gòu)昂貴硬件部署大模型,輕量化的「大象」就能無縫承接代碼開發(fā)、文檔處理、數(shù)據(jù)復(fù)盤、輕量Agent執(zhí)行等高頻剛需工作。
在動(dòng)輒消耗幾十萬Token的長(zhǎng)文本辦公場(chǎng)景中,響應(yīng)壓制在1秒內(nèi)、少說廢話的高效模型,正在成為AI從玩具跨越到生產(chǎn)力工具的堅(jiān)實(shí)底座。
快、準(zhǔn)、省,這三個(gè)看似接地氣的字眼,正在成為AI高效上崗的標(biāo)準(zhǔn)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.