衡宇 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
又一個中國新模型被推到聚光燈下,刷屏國內(nèi)外科技圈。
IQuest-Coder-V1模型系列,看起來真的很牛。
在最新版SWE-Bench Verified榜單中,40B參數(shù)版本的IQuest-Coder取得了81.4%的成績,這個成績甚至超過了Claude Opus-4.5和GPT-5.2(這倆模型沒有官方資料,但外界普遍猜測參數(shù)規(guī)模在千億-萬億級)。
Oh~Tiny Core, Titan Power。
![]()
好,看到這里我盲猜很多人肯定已經(jīng)開始邊搖頭邊笑了。
畢竟這年頭,benchmark的權(quán)威猶在,但說服力似乎已經(jīng)大不如前了。
那咱們就看看這個模型跑出來的case——
Prompt:編寫一個網(wǎng)頁來展示一個逼真的太陽系模擬。
然后你將得到:

可以自由切換各種視角,讓畫面暫停、放大,調(diào)整公轉(zhuǎn)速度也ok。
選中具體的行星,還會跳出相應(yīng)的名字和簡單介紹。

目前,這套代碼大模型系列已經(jīng)在GitHub和抱抱臉上開源。
有一個重點一定要劃!!!
這個模型團(tuán)隊IQuest,和DeepSeek團(tuán)隊一個路數(shù),都出自中國的量化私募。
背后公司就是北京版幻方量化——九坤投資。
(兩家公司都是業(yè)內(nèi)公認(rèn)的量化私募頭部)
X、Reddit等平臺上,關(guān)于IQuest-Coder的消息和對中國量化公司殺入AI模型戰(zhàn)場的討論已經(jīng)滿天飛了。
有網(wǎng)友一臉unbelievable地問出了令他詫異的問題:
- 中國量化公司到底吸納了些什么人才,才能把模型訓(xùn)練成這樣啊???
![]()
Ok,一起來看看這套模型的詳細(xì)情況吧~
IQuest-Coder-V1系列
從定位上看,IQuest-Coder-V1是一套覆蓋多個參數(shù)規(guī)模與使用場景的家族版本,專注于代碼生成、代碼理解與軟件工程任務(wù)的模型系列。
參數(shù)有7B、14B和40B的,每個規(guī)模均提供Instruct和Thinking兩種版本。
其中,Instruct偏向指令跟隨與工程使用,更高效;Thinking強(qiáng)化復(fù)雜推理和多步問題拆解,響應(yīng)時間更長。
![]()
特別提醒大家注意一下,40B參數(shù)規(guī)模的IQuest-Coder-V1額外提供了Loop版本,用于探索更高的參數(shù)利用效率。
與計算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache開銷顯著降低,而吞吐量大幅提升。
僅增加約5%的訓(xùn)練成本,Loop架構(gòu)下,40B模型達(dá)到數(shù)百億參數(shù)MoE模型的水平。
![]()
在架構(gòu)設(shè)計上,IQuest-Coder-V1系列強(qiáng)調(diào)了“工程友好”和“長上下文可用性”。
官方在GitHub上給出的四點架構(gòu)特性分別是:
- 分組查詢注意力(Grouped Query Attention,GQA)以實現(xiàn)高效推理
- 原生支持128K上下文長度
- 詞表大小:76800個token
- 循環(huán)變體采用了具有共享參數(shù)的循環(huán)Transformer設(shè)計,該設(shè)計在兩個迭代過程中保持一致。
首先說說GQA的引入。
通過減少KV頭數(shù)量來降低推理階段的顯存占用和計算壓力,對長上下文場景超級友好。
其次,模型原生支持128K上下文長度。這就讓模型有能力直接處理完整代碼倉庫、跨文件依賴以及大規(guī)模工程上下文。
第三,76800個token的詞表大小,更貼近真實代碼環(huán)境中頻繁出現(xiàn)的標(biāo)識符、路徑名和符號組合。
最后,在Loop變體中,模型采用了具有跨兩次迭代共享參數(shù)的循環(huán)Transformer設(shè)計,用重復(fù)計算換取更高的參數(shù)利用率,在不線性擴(kuò)大模型規(guī)模的前提下提升性能。
作者刻意指出,這和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更強(qiáng)調(diào)推理階段的穩(wěn)定性。
這些特性組合在一起,有利于模型在真實軟件工程場景中跑得更好。
![]()
來看官方展示的更多case。
Prompt 1:構(gòu)建一個粒子-文本動畫,滿足以下要求。
- 文本采樣:將給定文本(例如,IQuest)在 Canvas 上轉(zhuǎn)換為由數(shù)百個小粒子組成的點陣。
- 狀態(tài):每個粒子都有一個當(dāng)前位置和一個目標(biāo)位置(形成文本)。
- 交互式物理效果:當(dāng)鼠標(biāo)靠近時相互排斥和散開;當(dāng)鼠標(biāo)移開時平滑地彈回。
- 視覺效果與緩動:隨機(jī)/漸變顏色,用于整體運(yùn)動的緩動效果。

Prompt 2:構(gòu)建一個實時像素沙盒游戲。
通過按鈕切換沙子、水、石頭和酸液;在畫布上涂畫可生成具有不同顏色的元素;大規(guī)模更新依然流暢;元素會自然下落并流動。

Prompt 3:構(gòu)建一個完整的單文件HTML5 Canvas太空射擊游戲,具有復(fù)古霓虹美學(xué)和明顯的戰(zhàn)斗反饋。
- 視覺風(fēng)格:黑色背景,高飽和度霓虹幾何形狀,街機(jī)感。
- 控制:WASD移動;兩種瞄準(zhǔn)/炮塔模式(鼠標(biāo)跟隨,或按R鍵旋轉(zhuǎn)炮塔)。
- 射擊:帶完整視覺效果的自動射擊太空飛船。
- 反饋:擊殺時,出現(xiàn)粒子爆炸效果;受到傷害時,屏幕會震動。
- 敵人:普通士兵/奇襲者/重型坦克,以及Boss戰(zhàn)。
- 進(jìn)階:按P鍵能升級火力。
![]()
Prompt 4:基于鳥群算法的仿生鳥/魚群體模擬,擁有150個以上的自主Agent,有實時調(diào)節(jié)功能。
- 核心規(guī)則:分離(避免碰撞)、對齊(速度匹配)和內(nèi)聚(群體中心)。
- 實時面板:調(diào)整分離/對齊/凝聚權(quán)重(0-3)、視覺半徑(20-150 像素)和最大速度。
- 交互:鼠標(biāo)充當(dāng)捕食者,使附近的智能體散開。
- 渲染:在深色背景下,以運(yùn)動方向旋轉(zhuǎn)的霓虹三角形和發(fā)光軌跡。
- 工具:FPS 計數(shù)器和暫停/繼續(xù)(空格鍵)。

與眾不同的“代碼流多階段訓(xùn)練”訓(xùn)練策略
IQuest-Coder的訓(xùn)練流程如下——
預(yù)訓(xùn)練階段先用通用數(shù)據(jù)和大規(guī)模代碼數(shù)據(jù)打底,然后通過高質(zhì)量代碼annealing強(qiáng)化基礎(chǔ)代碼表征。
中期訓(xùn)練階段第一次明確引入reasoning、agent trajectory和長上下文代碼,并且分32K和128K兩個尺度逐步推進(jìn)。
最終post-training階段,模型被明確分流成instruct路線和thinking路線,分別用不同目標(biāo)函數(shù)和RL方式收斂。
![]()
官方強(qiáng)調(diào),IQuest-Coder-V1系列采用了與傳統(tǒng)單一靜態(tài)源代碼訓(xùn)練不同的訓(xùn)練策略。
稱之為code-flow multi-stage training。
與大量代碼模型側(cè)重從靜態(tài)代碼片段中學(xué)習(xí)不同,這套方法強(qiáng)調(diào)從代碼的演化過程中學(xué)習(xí)。
團(tuán)隊專門設(shè)計了基于項目生命周期的triplet數(shù)據(jù)構(gòu)造方式,用 (R_old, Patch, R_new) 這樣的結(jié)構(gòu),讓模型看到穩(wěn)定期代碼、變更內(nèi)容以及變更后的結(jié)果。
而且刻意避開項目早期和后期,只取40%–80%生命周期區(qū)間。
這一步實際上把“軟件工程經(jīng)驗”顯式編碼進(jìn)了訓(xùn)練數(shù)據(jù)里。
所以模型看到的并不只是某一時刻的完成態(tài)代碼,還包括修改前后的差異、提交歷史中的邏輯變化,以及真實工程中反復(fù)試錯和修正的痕跡。
也就是說模型被訓(xùn)練得能夠捕捉軟件邏輯的動態(tài)演變。
![]()
不少網(wǎng)友猜測,這就是IQuest-Coder-V1在多個軟件工程類評測中表現(xiàn)突出的重要原因之一。
這套模型成績確實亮眼。
- SWE-Bench Verified:81.4%
- BigCodeBench:49.9%
- LiveCodeBench v6:81.1%
![]()
下面這張圖體現(xiàn)得更直觀一點,IQuest-Coder在八個代碼、Agentic相關(guān)榜單上都獨(dú)占鰲頭。
![]()
不過,GitHub上白紙黑字寫著,模型可以生成代碼,但不能執(zhí)行,始終在沙盒環(huán)境中驗證輸出結(jié)果。
部署方面,官方信息顯示,不管是基礎(chǔ)版本還是Loop版本,都支持單卡H20推理。
其Int4版本可在單張消費(fèi)級3090/4090 GPU上部署。
![]()
有網(wǎng)友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架構(gòu)。
![]()
隨著關(guān)注度上升,質(zhì)疑也同步出現(xiàn)。
![]()
九坤投資公司是誰?
好,最后我們來認(rèn)識一下IQuest-Coder背后的公司,九坤投資(Ubiquant Holding Limited)。
公司成立于2012年,是中國較早一批專注量化投資和高頻交易的私募機(jī)構(gòu)之一,目前管理規(guī)模在數(shù)百億元人民幣,和幻方同屬于公認(rèn)的國內(nèi)量化私募頭部公司。
九坤主要辦公地在北京,3周前開設(shè)了新加坡辦公室。
聯(lián)合創(chuàng)始人王琛,2000年考入清華大學(xué),獲得數(shù)學(xué)物理學(xué)士學(xué)位和理論計算機(jī)博士學(xué)位,博士期間師從圖靈獎得主姚期智院士。
博士畢業(yè)后,王琛就職于美國頂級對沖基金Millennium,后創(chuàng)業(yè)擔(dān)任九坤投資聯(lián)合創(chuàng)始人、CEO。
聯(lián)合創(chuàng)始人姚齊聰,2002年考入北京大學(xué)數(shù)學(xué)系,獲得數(shù)學(xué)學(xué)士和金融數(shù)學(xué)碩士學(xué)位。
碩士畢業(yè)后進(jìn)入Millennium,后與王琛共同創(chuàng)業(yè),主要負(fù)責(zé)九坤投研體系搭建、量化策略開發(fā)和風(fēng)險管理,被視為公司策略和風(fēng)控體系的核心設(shè)計者之一。
九坤的投研與技術(shù)團(tuán)隊人數(shù)超過百人,90%以上畢業(yè)于清華、北大、復(fù)旦、斯坦福等國內(nèi)外知名高校,博士占比超過60%。
公開信息顯示,這家公司目前也傾向于從全球頂尖高校招募具有計算機(jī)、數(shù)學(xué)、物理、統(tǒng)計學(xué)等背景的應(yīng)屆畢業(yè)生。
![]()
在AI領(lǐng)域,幻方更早憑DeepSeek站到臺前。
不過查詢有關(guān)資料發(fā)現(xiàn),此前九坤也很注重AI技術(shù)這一塊。
目前,九坤的IT和算力建設(shè)位居國內(nèi)量化機(jī)構(gòu)前三,并建立了數(shù)據(jù)實驗室(DATA LAB)、人工智能實驗室(AI LAB)等多個前沿實驗室。
本次發(fā)布的IQuest-Coder就出自其發(fā)起設(shè)立的獨(dú)立研究平臺至知創(chuàng)新研究院。
倒也不全是為了把AI用在金融市場預(yù)測和交易決策啦——前段時間(2025年12月16日),九坤已經(jīng)推出過通用推理模型URM。
該模型在ARC-AGI正確率為53.8%,當(dāng)允許多次嘗試時,URM的成功率能達(dá)到85%以上;在更困難的ARC-AGI 2上也拿到了16.0%。
Paper最后附上了IQuest-Coder團(tuán)隊的成員名單。
![]()
挺長的,就不一一介紹了。
不過我們發(fā)現(xiàn)這篇paper的核心作者層,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者陣容重合度非常高。
所以這里稍微展開介紹一下Core Contributor的幾位成員。
(注:IQuestLab團(tuán)隊成員很多沒有公開個人檔案,我們這里放出可尋找到的公開資料)
Jian Yang,谷歌學(xué)術(shù)被引量超過1.6萬。
此前應(yīng)該在Qwen 2.5和Qwen 3團(tuán)隊待過很長一段時間,2025年起開始在九坤投資發(fā)表論文。
![]()
Zhengmao Ye,本科畢業(yè)于西南交通大學(xué),在四川大學(xué)獲得計算機(jī)科學(xué)碩士學(xué)位。
此前,他曾在華為和商湯科技擔(dān)任過技術(shù)工作人員。
![]()
你沒看錯,8位Core Contributor就找到了2位的公開資料,真的盡力了.gif
另外,paper的通訊作者,是九坤人工智能實驗室首席研究員和負(fù)責(zé)人Bryan Dai。
![]()
Paper地址:
file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
參考資料:
[1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
[2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
[3]https://iquestlab.github.io/#/
[4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.