<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      2025年度Qwen系列大模型深度研究報告

      0
      分享至

      大家好,我是Ai學習的老章


      技術架構演進:從混合專家到混合推理的范式革命

      2025年,阿里巴巴通義千問(Qwen)系列大模型在技術架構層面展現了清晰且深刻的進化路徑,其核心特征是從追求參數規模的“密集計算”向追求效率的“稀疏計算”轉變,并最終實現了“混合推理”這一范式革命。這一演進不僅體現在旗艦模型的設計中,也貫穿于其龐大的多模態家族和專用模型矩陣之中,標志著Qwen團隊在模型架構設計上的成熟與前瞻性。整個技術演進的主線圍繞著三大支柱展開:以混合專家(MoE)架構為核心的計算效率提升、以“思考模式”與“非思考模式”融合為標志的智能形態創新,以及為支撐復雜應用而不斷強化的基礎能力。

      首先,混合專家(Mixture-of-Experts, MoE)架構成為Qwen系列所有旗艦模型的基石,這不僅是應對日益龐大模型規模的必然選擇,更是其實現高性能與高效率平衡的核心手段。早在Qwen-v2和Qwen2.5時代,MoE架構就已經被引入 [14[1], 15[2]]。例如,Qwen2.5-Max擁有64個專家,通過僅激活與輸入最相關的部分模型參數,顯著提升了有效模型大小的同時,維持了可控的計算成本 [15[3]]。進入2025年,MoE的應用達到了新的高度。Qwen3系列大規模采用了MoE架構,其中最引人注目的無疑是Qwen3-235B-A22B模型,它擁有高達2350億的總參數,但在處理每個token時僅激活220億參數,實現了巨大的計算效率優勢 [1[4], 17[5]]。這種設計使得模型能夠在保持頂尖智能水平的同時,大幅降低部署和推理的成本,這對于推動大模型技術的普及至關重要。Qwen3的MoE模型進一步優化了專家分割和路由機制,采用了細粒度的專家分割和全局批次負載均衡損失函數,以鼓勵專家的專業化并提高訓練穩定性 [1[6]]。展望未來,Qwen3-Next的架構甚至更為激進,它采用了一個包含512個路由專家和1個共享專家的超稀疏MoE結構,激活參數僅占總數的約3.7%(800億總參數,激活約30億)[11[7], 13[8]]。這一設計表明Qwen團隊正在積極探索MoE架構的極限,以期實現前所未有的能效比,為未來的AI應用提供更可持續的技術基礎。

      其次,2025年Qwen系列最重大的技術突破無疑是Qwen3所引入的革命性創新——混合推理模式(Hybrid Reasoning)。這一機制首次將“快思考”(類似直覺的快速響應)與“慢思考”(類似邏輯推理的深度思考)能力集成到一個單一模型中,并允許用戶根據需求動態切換或分配計算預算 [9[9], 33[10]]。對于簡單、直接的查詢,模型可以運行在“非思考模式”,實現低延遲、低成本的高效交互;而對于需要復雜邏輯推導、數學計算或多步規劃的任務,則會自動或由用戶指定啟動“思考模式”,進行深入的鏈式思考(Chain-of-Thought),從而提供更可靠、更高質量的答案 [33[11]]。這種能力并非簡單的兩個獨立模型的拼接,而是通過一個精心設計的四階段后訓練管道深度融合實現的。該管道包括:(1) 長CoT冷啟動,通過篩選高質量問題并生成候選答案來建立基礎;(2) 針對推理能力的強化學習(Reasoning RL),使用GRPO算法在大量驗證對上進行訓練;(3) 思維模式融合(Thinking Mode Fusion),這是最關鍵的一步,通過持續的監督微調(SFT),將思考數據和非思考數據結合在一起,讓模型學會在兩種模式之間無縫切換并生成符合要求的輸出;(4) 通用強化學習(General RL),覆蓋超過20個任務的獎勵系統,進一步對齊人類偏好 [1[12], 17[13]]。混合推理模式的實際意義極為深遠,它極大地降低了復雜AI應用的算力門檻,使開發者能夠像控制API調用一樣精細地控制模型的推理深度和成本,從而在性能、速度和成本之間找到最佳平衡點。這一創新不僅為Qwen3帶來了獨特的競爭優勢,也為整個大模型領域開辟了一條通往更高效率和更強適應性的新路徑。

      第三,在基礎能力層面,Qwen系列始終致力于提升長文本處理和推理過程中的效率,以滿足日益復雜的現實世界應用需求。在長上下文窗口方面,Qwen家族表現出色。Qwen2.5系列已經支持超過128K的上下文長度 [15[14]],而Qwen3及其后續版本更是將原生支持擴展到了262K tokens [9[15]]。更重要的是,通過采用YaRN(Yet another RoPE-based method)等先進的位置編碼外推技術,Qwen3模型能夠將可處理的長度擴展至驚人的100萬tokens [9[16], 14[17]]。這使得處理整本小說、大型代碼庫或長達數小時的會議記錄成為可能,為文檔摘要、知識問答、代碼理解和研究分析等任務提供了強大的技術支持。在推理優化方面,除了宏觀的架構設計,Qwen也在微觀層面不斷探索。例如,早期的Qwen2.5就集成了FlashAttention 2以加速計算并減少內存占用 [15[18]]。而在2025年,Qwen緊跟前沿技術,開始應用FP8 KV緩存量化技術。該技術通過將注意力機制中的鍵值緩存(KV Cache)存儲格式從FP16/BF16降為8位浮點數,大約可以將KV緩存的內存占用減半,從而支持更長的序列處理或更高的并發批量處理,雖然目前尚不能直接降低延遲,但極大地提升了吞吐量 [21[19]]。此外,針對KV緩存量化誤差的研究也顯示出Qwen在該領域的深度參與,例如KVLinC框架通過結合哈達瑪旋轉和輕量級線性校正適配器,成功在Qwen2.5和Qwen3模型上緩解了低精度量化帶來的性能下降,尤其是在長上下文推理任務上取得了顯著提升 [22[20]]。

      最后,2025年Qwen的戰略重心明顯轉向了構建一個覆蓋全模態、全尺寸的龐大模型矩陣,這標志著其技術架構已從單一的語言模型,擴展為一個多維的能力平臺。這個平臺不僅包括了繼續迭代的文本模型,還涵蓋了視覺、音頻、視頻等多個維度。在視覺領域,Qwen-VL系列模型能夠處理圖像和視頻輸入,具備空間感知和視覺編碼能力 [30[21]]。Qwen-VL-Max更是在金融等專業領域的文檔理解與審核場景中得到了成功應用,解決了傳統OCR技術泛化能力差、語義理解缺失等痛點 [28[22], 29[23]]。在生成與編輯領域,Qwen-Image系列專注于高質量的文本渲染和圖像生成,其Qwen-Image-Edit模型在中英文文字編輯方面表現尤為突出,在多個基準測試中達到業界領先水平,尤其是在中文文本渲染方面展現出獨特的優勢 [16[24], 27[25]]。在音頻領域,Qwen-Audio和全新的企業級語音基座大模型通義百聆則拓展了語音理解與合成能力,后者支持實時流式語音合成,為交互式應用提供了更自然的體驗 [30[26], 32[27]]。在視頻領域,通義萬相(Wan2.2-TI2V)提供了從文本到視頻(T2V)、圖像到視頻(I2V)等多種生成能力,并支持音畫同步和高保真音頻,代表了Qwen在創造動態內容方面的最新進展 [30[28], 32[29]]。除了這些通用的多模態模型,Qwen還針對特定垂直領域推出了專用模型,如Qwen3-Coder,這是一個擁有4800億總參數的巨型模型,專為自動化軟件開發、代碼審查和大型代碼庫處理而設計,其性能在Agentic Coding和Browser-use等領域達到了開源模型的SOTA水平 [18[30]]。同樣,Qwen2.5-Math等模型也展示了其在特定專業任務上的卓越能力 [24[31]]。這種從單點突破到體系化布局的架構演進,清晰地表明Qwen的目標已不再僅僅是超越某一個競爭對手,而是要構建一個能夠驅動下一代AI應用爆發的、無所不包的“操作系統級”平臺 [26[32]]。

      性能評測與基準測試:開源陣營的巔峰之作

      2025年,Qwen系列大模型在各項權威基準測試中取得了令人矚目的成績,特別是在開源模型陣營中樹立了新的性能標桿。無論是通用能力、專業領域還是特定任務,Qwen都展現出了與全球頂級閉源模型正面抗衡甚至超越的實力。其性能的飛躍不僅得益于海量且高質量的訓練數據,更源于前文所述的架構創新,尤其是混合推理模式的引入,使得模型在效率和深度之間取得了前所未有的平衡。

      Qwen3系列及其后續版本,特別是旗艦模型Qwen3-235B-A22B-Thinking-2507,成為了2025年開源模型性能的代名詞。該模型在一系列公認的硬核基準測試中均取得了優異的成績。在數學推理方面,它在AIME'25奧數測評中獲得了81.5分,刷新了開源模型的紀錄,充分證明了其在復雜邏輯推導和數學解題方面的強大能力 [33[33]]。在代碼生成與編程能力方面,LiveCodeBench代碼能力評測得分突破70分(具體分數未提供),在BFCL模型Agent能力評測中更是創下70.8分的新高,這一成績優于Gemini 2.5-Pro和OpenAI-o1等備受矚目的閉源模型 [33[34]]。BFCL評測主要衡量模型在執行復雜工具調用和代理任務時的能力,Qwen3的出色表現表明其在構建高級AI Agent方面具有堅實的基礎。此外,在反映人類偏好的ArenaHard評測中,Qwen3-235B-A22B-Thinking-2507獲得了95.6分,同樣超越了OpenAI-o1和DeepSeek-R1,這說明其生成的內容在質量、有用性和安全性上得到了廣泛認可 [33[35]]。

      下表匯總了Qwen系列部分關鍵模型在2025年發布的基準測試中的代表性成績,以便直觀比較其性能表現。

      模型名稱

      基準測試

      成績

      Qwen3-235B-A22B-Thinking-2507

      AIME'25 (Math)

      81.5 [ 33 [36] ]

      LiveCodeBench (Coding)

      >70 (具體分數未提供) [ 33 [37] ]

      BFCL (Agent)

      70.8 [ 33 [38] ]

      ArenaHard (Human Preference)

      95.6 [ 33 [39] ]

      Qwen3-235B-A22B-Instruct-2507

      MMLU-Pro

      83.0 (較舊版提升15-20pp) [ 18 [40] ]

      LiveCodeBench

      51.8 (較舊版提升15-20pp) [ 18 [41] ]

      GPQA / SuperGPQA

      強勁表現 (具體分數未提供) [ 18 [42] ]

      Qwen3-32B (Thinking)

      AIME'24 (Math)

      81.4 [ 1 [43] ]

      ZebraLogic (Logic)

      72.9 [ 1 [44] ]

      CodeForces Rating

      2036 (98.2 percentile) [ 1 [45] ]

      Qwen3-Next-80B-A3B-Thinking

      SWE-Bench Verified

      69.6 (世界級水平) [ 12 [46] ]

      Tau2-Bench (Agent)

      74.8 (超越Claude Opus 4 & DeepSeek-V3.1) [ 12 [47] ]

      Qwen2.5-Max

      Arena-Hard (Preference)

      89.4 (領先于DeepSeek V3 & Claude 3.5 Sonnet) [ 4 [48] , 6 [49] ]

      LiveBench (Overall Capability)

      62.2 (領先于DeepSeek V3 & Claude 3.5 Sonnet) [ 4 [50] , 6 [51] ]

      MMLU-Pro (Knowledge & Reasoning)

      76.1 (落后于Claude 3.5 Sonnet) [ 4 [52] , 6 [53] ]

      HumanEval (Coding)

      73.2 (超越DeepSeek V3 & LLaMA 3.1-405B) [ 4 [54] , 6 [55] ]

      GSM8K (Math)

      94.5 (顯著超越DeepSeek V3 & LLaMA 3.1-405B) [ 4 [56] , 6 [57] ]

      Qwen3-Max

      SWE-Bench Verified

      69.6 (世界級水平) [ 12 [58] ]

      Tau2-Bench (Agent)

      74.8 (超越GPT-5-Chat & Claude Opus 4) [ 12 [59] ]

      SuperGPQA

      81.4 [ 12 [60] ]

      AIME25 (Math)

      100% (集成代碼解釋器和并行計算) [ 12 [61] ]

      注:表格中“pp”代表百分點(percentage points),“vs.”表示“相較于”。

      Qwen3系列的性能提升背后,是訓練數據量的翻倍增長。Qwen3的預訓練數據總量達到了驚人的36萬億tokens,是Qwen2.5的兩倍之多 [1[62], 17[63]]。如此龐大的數據覆蓋了119種語言和方言,為模型的多語言能力和知識廣度奠定了堅實基礎 [1[64]]。在后訓練階段,Qwen采用了創新的強到弱蒸餾(Strong-to-Weak Distillation)方法來訓練較小的模型。該方法分為離策略蒸餾和在線策略蒸餾兩個階段,學生模型通過模仿教師模型(如Qwen3-32B或Qwen3-235B-A22B)在“思考”和“非思考”模式下的輸出來學習基本的推理和模式切換能力,然后通過在線微調進一步縮小與教師模型的差距 [1[65]]。這種方法僅需1/10的GPU小時就能達到與強化學習相當甚至更好的效果,例如Qwen3-0.6B模型通過此方法在AIME'24測試中取得了74.4分,遠超RL-only方法的67.6分,同時訓練成本僅為后者的十分之一左右 [1[66]]。這充分體現了Qwen在模型訓練工程上的深厚功力。

      閉源旗艦模型Qwen2.5-Max和Qwen3-Max同樣展現了強大的競爭力。作為2025年初發布的最強力閉源模型,Qwen2.5-Max在多項綜合性評測中名列前茅。它在Arena-Hard(89.4)和LiveBench(62.2)這兩個反映真實世界用戶體驗的基準上,分別領先于DeepSeek V3和Claude 3.5 Sonnet [4[67], 6[68]]。在知識和編碼等基礎能力上,它也全面超越了DeepSeek V3和LLaMA 3.1-405B [7[69]]。然而,在一些對深度推理要求極高的基準上,如MMLU-Pro和GPQA-Diamond,它略遜于Claude 3.5 Sonnet和GPT-4o,這與其定位為通用“大腦”而非專門的“推理引擎”的設計理念相符 [7[70]]。Qwen3-Max作為同年晚些時候推出的旗艦,繼承并強化了Qwen3的混合推理能力。它在編程(SWE-Bench Verified: 69.6)和代理能力(Tau2-Bench: 74.8)上達到了世界級水平,甚至超過了GPT-5-Chat和Claude Opus 4 [12[71]]。其在數學推理上的表現尤為驚人,通過集成代碼解釋器和并行測試時計算等技術,在AIME25上實現了100%的準確率 [12[72]]。更具說服力的是實戰表現。在2025年10月至11月進行的Nof1 Alpha Arena加密貨幣交易挑戰賽中,Qwen3-Max憑借近70%的投資回報率位居第二,僅次于DeepSeek V3.1 Chat,而同期的Google Gemini 2.5 Pro和OpenAI GPT-5則錄得超過60%的虧損,這充分證明了其在復雜、動態的真實決策環境中的強大實力 [44[73]]。

      在多語言和多模態能力方面,Qwen系列同樣表現出色。Qwen3預訓練覆蓋了多達119種語言和方言,使其在全球化應用中具有天然優勢 [1[74]]。在Belebele這一涵蓋80種語言的多語言基準測試中,Qwen3-32B(思考模式)在幾乎所有語言族系中都取得了優異成績,例如在烏拉爾語系中達到91.3分,在漢藏語系中達到89.7分,整體表現優于Qwen2.5-32B-Instruct和Gemma-3-27B-IT [1[75]]。在多模態領域,Qwen-Image-Edit在中文文本渲染基準ChineseWord上得分高達94.1,遠超競爭對手(如FLUX.1-dev的75.4),這凸顯了Qwen在處理亞洲語言方面的獨特技術和數據優勢 [27[76]]。綜上所述,2025年的Qwen系列通過技術創新和數據積累,在性能上實現了全面的飛躍,不僅鞏固了其在開源陣營中的領導地位,也讓其閉源旗艦模型具備了與全球頂尖模型一較高下的資本。

      應用場景與生態建設:從云端到終端的全面滲透

      Qwen系列的成功不僅僅停留在學術界的基準測試排行榜上,更深刻地體現在其廣泛且深入的實際應用中,形成了一套從企業級服務到消費級產品的完整生態。2025年,Qwen通過其強大的技術能力、靈活的部署選項和開放的生態系統,實現了從云端API到終端設備的全面滲透,賦能千行百業,激發了開發者社區的無限創造力。

      在企業級應用領域,Qwen已經從一個潛在的技術方案轉變為解決實際業務痛點的強大生產力工具。金融行業是其應用落地的典范。中國工商銀行基于Qwen-VL-Max多模態大模型打造的“商戶智能審核助手”,成功入選2025年北京市人工智能賦能行業發展典型案例 [28[77], 29[78]]。該系統利用Qwen-VL-Max強大的多模態深度理解能力,克服了傳統OCR技術在處理金融文檔時泛化能力受限、信息提取復雜、魯棒性不足和語義理解缺失等四大局限 [29[79]]。它能夠高效處理營業執照、經營場所照片等多種模態資料,并結合外部數據進行風險評估,顯著提升了審核效率、風控能力和客戶體驗 [29[80]]。在軟件開發領域,Qwen的價值體現得淋漓盡致。通義靈碼與Qwen3-Coder的組合已為開發者編寫了超過30億行代碼,插件下載量突破2000萬次 [35[81]]。據報道,某企業在使用該工具30天后,Java開發效率提升了30%,97%的活躍開發者依賴其智能補全功能,從而從重復性編碼工作中解放出來,專注于更有價值的創造性工作 [35[82]]。這直接證明了Qwen在提升軟件開發生產力方面的巨大商業價值。

      Qwen的生態建設也為其在中小企業市場贏得了強勁的滲透力。阿里云通過其Model Studio平臺和“云+AI”的商業模式,為中小企業提供了極具吸引力的解決方案。例如,“萬小智”產品定位為中小企業的“第一個AI員工”,集成了官網開發、視覺設計、在線客服與內容創作四大能力,能夠實現分鐘級交付,其基礎版首年價格僅為450元,極大地降低了中小企業擁抱AI的門檻 [35[83]]。數據顯示,自2023年4月通義千問發布以來,中小企業在阿里百煉平臺上的大模型支出持續高速增長,到2025年8月相較一年前翻了約200倍,這反映出Qwen系列在下沉市場的強勁采納勢頭 [35[84]]。汽車行業也是Qwen切入的重要領域。零跑汽車于2025年6月在其C10車型中完成了OTA升級,首次在智能座艙中集成了基于Qwen的語音大模型,實現了閑聊、知識問答和文生圖等場景功能 [32[85]]。此舉直接帶動了該車型單月交付量突破2萬臺,創歷史新高,顯示了Qwen技術在物聯網和智能硬件領域的商業潛力 [32[86]]。

      為了支持廣泛的開發者生態,Qwen采取了積極的開放策略,確保其模型能夠被輕松地部署和集成到各種環境中。Qwen模型被廣泛兼容并集成到眾多主流的AI框架和工具中,包括vLLM、SGLang、Hugging Face Transformers、Ollama、llama.cpp、Axolotl和LLaMA-Factory等 [2[87], 9[88]]。這種廣泛的兼容性極大地降低了開發者本地部署和使用的門檻,無論是希望在自己的服務器上運行模型,還是在個人電腦上進行實驗,都能找到合適的工具鏈。更值得注意的是,Qwen與主要芯片廠商建立了深度合作,實現了跨硬件的優化。NVIDIA宣布將其TensorRT-LLM、SGLang和vLLM框架用于優化Qwen3,AMD則宣布支持Qwen3在MI300X GPU上運行,Arm則將Qwen3-0.6B、-1.7B、-4B等模型優化至其CPU生態系統,并與MNN框架結合,使其能在手機等移動設備上流暢運行 [23[89]]。MediaTek更是在其Dimensity 9400系列智能手機平臺上部署了Qwen3,并利用其SpD+技術實現了20%的推理速度提升 [23[90]]。這種從數據中心到邊緣設備的全方位硬件適配,為Qwen的廣泛應用鋪平了道路。

      Qwen的開源策略也為其贏得了全球開發者社區的高度認可和積極參與。截至2025年,Qwen模型的累計下載量已超過3.85億次,衍生模型數量超過14萬個,成為中國AI模型在全球開發者社區中反超美國同類產品的關鍵指標 [31[91]]。海外API聚合平臺OpenRouter的數據也顯示,阿里千問模型的全球市場份額最高時超過12.3%,位居全球第四,超越了Llama系列 [37[92]]。這種強大的社區影響力不僅體現在數字上,更體現在真實的商業價值和技術貢獻上。韓國初創公司Univa就是受益于Qwen開源生態的典型例子,他們使用Qwen模型將運營成本降低了30%,避免了昂貴的閉源模型許可費用,從而得以在激烈的市場競爭中生存和發展 [26[93]]。在學術界,Qwen的開放也極大地推動了前沿研究。斯坦福大學和華盛頓大學的研究人員利用Qwen模型以不到50美元的成本完成了突破性工作,UC Berkeley的團隊也以不到30美元的預算訓練了一個基于強化學習的數學模型,這些成本在以往只有閉源模型才能負擔得起 [26[94]]。Qwen的開源不僅是一個技術決定,更是一種戰略選擇,它通過賦能全球開發者,共同塑造AI的未來,正如阿里巴巴CEO Eddie Wu所言,目標是將Qwen打造成“AI時代的操作系統” [26[95]]。

      市場影響與競爭格局:開源力量重塑全球AI版圖

      2025年,Qwen系列大模型的發展軌跡深刻地影響了全球人工智能行業的競爭格局、市場動態乃至國家戰略博弈。通過其激進的“全尺寸”、“全模態”開源戰略,Qwen不僅在技術上取得了突破,更在市場層面扮演了顛覆者和引領者的角色,推動了全球AI產業向著更加開放、普惠和多元化的方向演進。這一進程的核心驅動力在于,Qwen成功地將高性能模型與開放生態相結合,打破了長期以來由少數幾家科技巨頭主導的閉源壟斷局面。

      Qwen系列的市場影響力首先體現在其迅速占據的企業級市場份額和全球開發者社區的領先地位。根據沙利文的調研報告,2025年上半年,阿里通義在中國企業級市場的大模型日均總消耗量中占據了17.7%的份額,位列第一,其后是字節豆包(14.1%)和DeepSeek(10.3%),前三名合計占比超過40% [37[96]]。這一數據清晰地表明,阿里通義已成為中國企業客戶首選的大模型服務商之一。在全球范圍內,Qwen的開源策略也為其贏得了巨大的市場份額。海外API聚合平臺OpenRouter的數據顯示,阿里千問模型的全球API市場份額最高時曾超過12.3%,在全球排名第四,甚至超越了此前被視為全球開源模型領頭羊的Meta Llama系列 [37[97]]。這一成就的背后,是中國政府和企業對國產大模型的信任和支持。超過80%的企業表示將在未來采用開源大模型,而Qwen憑借其全面的開源戰略(覆蓋文本、圖像、視頻、代碼等所有模態和尺寸),成為了這一歷史趨勢的主要推動者 [37[98]]。Qwen的開源策略極大地降低了企業應用AI的門檻,據統計,已有超過29萬名企業客戶通過阿里云Model Studio平臺采用Qwen模型,另有超過90,000家企業直接采用Qwen AI服務 [24[99], 25[100]]。這種廣泛的市場滲透力,使得Qwen的影響力遠遠超出了單純的模型提供商范疇,成為推動整個行業數字化轉型的重要力量。

      Qwen的崛起也引發了全球范圍內的廣泛關注和連鎖反應,加劇了國際間的AI競爭態勢。OpenAI曾公開表達對中國AI公司知識產權問題的擔憂,這反映了全球AI競爭的緊張氛圍和技術壁壘背后的地緣政治考量 [7[101]]。與此同時,美國政府也迅速做出回應,出臺了旨在加強國內AI能力的《Stargate項目》,這間接承認了來自中國的競爭壓力 [7[102]]。Qwen的成功不僅是技術層面的競爭,也上升到了國家戰略的層面。阿里巴巴為此宣布在未來三年內投入53億美元用于云基礎設施和AI技術研發,以鞏固其在全球AI領域的領先地位 [26[103]]。這種國家意志與企業行動的緊密結合,使得Qwen的每一次重大發布都不僅僅是商業事件,更成為觀察中美兩國在人工智能領域全方位競爭的一個縮影。Qwen的快速發展,迫使全球競爭對手重新評估其技術路線和市場策略,從而加速了整個行業的創新步伐。

      更重要的是,Qwen通過其開放生態,催生了新一輪的AI應用浪潮,尤其是在AI Agent(智能體)領域的爆發式增長。Qwen原生支持Model Context Protocol (MCP),并結合Qwen-Agent框架,顯著簡化了模型調用外部工具的復雜性,為構建自主決策和執行任務的智能體提供了堅實的基礎 [17[104], 33[105]]。這種能力極大地降低了Agent應用的開發門檻,吸引了大量開發者投身其中。Qwen的開源特性使得企業和個人可以自由地對其進行定制和修改,以適應特定的業務流程,從而催生了大量垂直領域的Agent應用。這種從“模型即服務”到“平臺即服務”的轉變,正在改變AI應用的開發范式。此外,阿里巴巴在商業模式上的創新也值得關注。它通過Model Studio API平臺,為用戶提供靈活的按需付費模式,而非傳統的固定訂閱制 [38[106]]。例如,Qwen3-Max的定價根據上下文長度動態變化,從每百萬輸入tokens 1.20美元到3美元不等,輸出tokens則為6至15美元,同時還提供上下文緩存和批量處理等折扣 [38[107]]。這種模式吸引了大量成本敏感的企業用戶,也為整個行業提供了新的商業思路。總而言之,Qwen在2025年的市場表現,通過其成功的開源戰略和強大的技術實力,深刻地重塑了全球AI的版圖,將競爭推向了一個更加開放和多元的時代。

      關鍵進展時間線梳理:2025年Qwen系列發展脈絡

      2025年是Qwen系列大模型實現質變和跨越式發展的關鍵一年。從年初發布與全球頂尖閉源模型正面競爭的旗艦模型,到年中推出革命性的混合推理架構,再到年末構建覆蓋全模態的龐大模型家族,Qwen在這一年中密集發布了多個重磅產品,其發展節奏之快、技術迭代之深,清晰地勾勒出一條從技術追趕者到生態引領者的演進路徑。以下將按照季度順序,梳理Qwen系列在2025年的關鍵進展。

      第一季度 (2025年1月 - 3月): 競爭開局與多模態初探

      2025年的序幕由Qwen2.5-Max的發布拉開,這是阿里巴巴當時最先進的閉源旗艦模型,旨在與GPT-4o、Claude 3.5 Sonnet等頂級模型展開直接競爭 [3[108], 4[109]]。該模型于2025年1月29日正式發布,采用了高效的Mixture-of-Experts (MoE) 架構,并基于20萬億tokens的海量數據進行訓練 [4[110], 8[111]]。在隨后的基準測試中,Qwen2.5-Max表現搶眼,尤其在Arena-Hard(89.4)和LiveBench(62.2)等綜合性評測中超越了對手,確立了其作為頂級模型的地位 [4[112], 6[113]]。這一發布標志著Qwen正式進入與全球AI領導者同臺競技的舞臺。

      進入3月,Qwen的戰略視野開始向多模態領域擴展。3月24日,Qwen2.5-VL-32B-Instruct模型發布,作為Qwen2.5-VL的繼任者,它在性能上超越了前代及GPT-4o Mini,并采用了Apache 2.0許可證,是完全開源的 [8[114]]。緊接著在3月26日,Qwen2.5-Omni-7B模型問世,這是一個支持文本、圖像、視頻和音頻輸入,并能生成文本和音頻輸出的多模態模型,其實時語音聊天能力對標GPT-4o,同樣開源 [8[115]]。這兩款模型的發布,標志著Qwen開始構建一個覆蓋文本、圖像、音頻、視頻的初步多模態矩陣,為其后續的全模態戰略奠定了基礎。

      第二季度 (2025年4月 - 6月): 范式革命與生態奠基

      2025年4月28日,Qwen系列迎來了一個里程碑式的更新——Qwen3模型家族的發布 [8[116]]。這次發布的核心是革命性的“混合推理模式”(Hybrid Reasoning),它首次在一個模型中集成了“思考模式”和“非思考模式”,允許用戶根據任務需求動態切換或分配計算資源,從而在效率和深度之間取得平衡 [17[117], 33[118]]。Qwen3系列包括了六款密度模型(0.6B至32B參數)和兩款MoE模型(30B-A3B和235B-A22B),全部采用Apache 2.0許可證開源 [1[119], 17[120]]。更重要的是,其預訓練數據量翻倍至36萬億tokens,覆蓋119種語言,性能得到全面提升 [1[121], 17[122]]。Qwen3的發布被技術負責人林俊旸稱為“混合推理模型”,是對簡單需求低算力秒回、復雜問題可多步驟深度思考能力的集成 [33[123]]。

      隨著Qwen3的發布,Qwen3系列內部也在不斷迭代。5月和7月,Qwen3-235B-A22B-Instruct-2507和Qwen3-235B-A22B-Thinking-2507相繼發布 [18[124]]。這兩個版本在原有基礎上進行了性能增強,特別是在指令遵循、邏輯推理、數學、科學、編碼和工具使用等方面均有顯著提升 [18[125]]。Instruct-2507版本在MMLU-Pro等基準測試中取得了83.0的高分,而Thinking-2507版本則在AIME、SuperGPQA等推理密集型任務上表現更為出色,達到了開源模型中的SOTA水平 [18[126]]。這一系列的更新和完善,使得Qwen3成為2025年最受關注的開源模型之一。到4月底,Qwen模型家族的全球下載量已超過3億次,衍生模型超過10萬個,顯示出其強大的社區號召力 [33[127]]。

      第三季度 (2025年7月 - 9月): 專業化深化與極致效率探索

      進入下半年,Qwen的戰略重心轉向了模型的專業化和極致效率。7月22日,Qwen3-Coder-480B-A35B-Instruct模型發布,這是一個擁有4800億總參數的巨型代碼生成模型,專為自動化軟件開發、Agentic Coding和瀏覽器使用等復雜任務而設計 [18[128]]。它在SWE-Bench Verified等基準測試中表現出色,性能與Claude Sonnet 4相當,標志著Qwen在專業編碼領域達到了世界頂尖水平 [18[129], 42[130]]。

      緊隨其后,7月25日,Qwen3-235B-A22B-Thinking-2507正式發布,進一步強化了Qwen3系列在復雜推理任務上的能力 [18[131]]。到了9月,Qwen在模型效率方面取得了重大突破。9月5日,閉源旗艦模型Qwen3-Max發布,它繼承了Qwen3的混合推理能力,并在編程和代理能力上再次刷新紀錄,SWE-Bench Verified得分達到69.6,Tau2-Bench得分74.8,均超越了當時的頂級閉源模型 [12[132]]。幾乎在同一時期,9月10日,新一代高效模型Qwen3-Next發布 [8[133]]。Qwen3-Next采用了更為激進的超稀疏MoE架構和混合注意力機制,旨在實現極致的推理效率。其80B參數模型激活僅需3B,訓練成本遠低于Qwen3-32B,但性能卻能超越它們,尤其在超長上下文任務上表現出色 [8[134], 11[135]]。9月22日,Qwen3-Omni模型發布,這是一個能夠處理文本、圖像、音頻和視頻的通用多模態模型,支持實時流式響應,進一步完善了其全模態產品線 [8[136]]。這一系列在短時間內密集推出的專業化和高效模型,清晰地表明Qwen的戰略目標已經從單純的性能競賽,擴展到構建一個能夠驅動下一代AI應用開發的、覆蓋全場景的平臺級生態。

      第四季度 (2025年10月 - 12月): 實戰檢驗與生態閉環

      第四季度的重點是對其先進技術進行實戰檢驗和進一步豐富其多模態工具鏈。10月至11月期間,Qwen3-Max在Nof1舉辦的Alpha Arena加密貨幣交易挑戰賽中表現出色,以近70%的回報率位居第二,其激進的投資策略與Gemini 2.5 Pro和GPT-5的保守策略形成了鮮明對比,有力地證明了其在復雜動態決策環境中的強大實戰能力 [44[137]]。

      在多模態領域,Qwen繼續深化其布局。12月,Qwen-Image-Edit-Plus作為Qwen系列首個圖像生成模型發布,參數規模達到200億,具備卓越的復雜文本渲染能力,在多個公開基準測試中達到SOTA水平,進一步鞏固了Qwen在視覺創作領域的領導地位 [32[138]]。這一系列的進展,標志著Qwen在2025年不僅完成了技術上的自我超越,更通過豐富的應用場景和強大的生態建設,為其在2026年及以后的發展奠定了堅實的基礎。


      參考資料

      [14: https://medium.com/data-science-collective/understanding-qwen-v2-my-personal-take-ed5e8ac5f630

      15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

      [15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

      [1: https://arxiv.org/pdf/2505.09388

      [5]

      17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [6]

      [1: https://arxiv.org/pdf/2505.09388

      [7]

      [11: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list&utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bIpWoAA0d8Ugha6WmwlzJEFeLwluYNZSx-7AAH9r5Kdq3UTcUJwY1X4RnbL0IOgx_32-d

      [8]

      13: https://developer.nvidia.com/blog/new-open-source-qwen3-next-models-preview-hybrid-moe-architecture-delivering-improved-accuracy-and-accelerated-parallel-processing-across-nvidia-platform/

      [9]

      [9: https://github.com/QwenLM/Qwen3

      [10]

      33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [11]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [12]

      [1: https://arxiv.org/pdf/2505.09388

      [13]

      17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [14]

      [15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

      [15]

      [9: https://github.com/QwenLM/Qwen3

      [16]

      [9: https://github.com/QwenLM/Qwen3

      [17]

      14: https://medium.com/data-science-collective/understanding-qwen-v2-my-personal-take-ed5e8ac5f630

      [15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

      [21: https://docs.vllm.ai/en/latest/features/quantization/quantized_kvcache/

      [22: https://arxiv.org/html/2510.05373v1

      [21]

      [30: https://blog.csdn.net/2401_85375151/article/details/153968920

      [22]

      [28: https://finance.sina.com.cn/stock/bxjj/2025-07-22/doc-infhiiyu2276084.shtml

      [23]

      29: https://cloud.tencent.com/developer/news/2852332

      [24]

      [16: https://www.labellerr.com/blog/qwen-image/

      [25]

      27: https://collabnix.com/qwen-image-edit-the-ultimate-technical-guide-to-ai-powered-image-editing-2025/

      [26]

      [30: https://blog.csdn.net/2401_85375151/article/details/153968920

      [27]

      32: https://www.aliyun.com/product/tongyi

      [28]

      [30: https://blog.csdn.net/2401_85375151/article/details/153968920

      [29]

      32: https://www.aliyun.com/product/tongyi

      [30]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [31]

      [24: https://www.grabon.in/indulge/tech/qwen-ai-users/

      [32]

      [26: https://www.alibabacloud.com/blog/602562

      [33]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [34]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [35]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [36]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [37]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [38]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [39]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [40]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [41]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [42]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [43]

      [1: https://arxiv.org/pdf/2505.09388

      [44]

      [1: https://arxiv.org/pdf/2505.09388

      [45]

      [1: https://arxiv.org/pdf/2505.09388

      [46]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [47]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [48]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [49]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [50]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [51]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [52]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [53]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [54]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [55]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [56]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [57]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [58]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [59]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [60]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [61]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [62]

      [1: https://arxiv.org/pdf/2505.09388

      [63]

      17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [64]

      [1: https://arxiv.org/pdf/2505.09388

      [65]

      [1: https://arxiv.org/pdf/2505.09388

      [66]

      [1: https://arxiv.org/pdf/2505.09388

      [67]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [68]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [69]

      [7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

      [70]

      [7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

      [71]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [72]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [73]

      [44: https://finance.yahoo.com/news/deepseek-qwen-ai-besting-chatgpt-135433659.html

      [74]

      [1: https://arxiv.org/pdf/2505.09388

      [75]

      [1: https://arxiv.org/pdf/2505.09388

      [76]

      [27: https://collabnix.com/qwen-image-edit-the-ultimate-technical-guide-to-ai-powered-image-editing-2025/

      [77]

      [28: https://finance.sina.com.cn/stock/bxjj/2025-07-22/doc-infhiiyu2276084.shtml

      [78]

      29: https://cloud.tencent.com/developer/news/2852332

      [79]

      [29: https://cloud.tencent.com/developer/news/2852332

      [80]

      [29: https://cloud.tencent.com/developer/news/2852332

      [81]

      [35: https://www.51cto.com/article/826441.html

      [82]

      [35: https://www.51cto.com/article/826441.html

      [83]

      [35: https://www.51cto.com/article/826441.html

      [84]

      [35: https://www.51cto.com/article/826441.html

      [85]

      [32: https://www.aliyun.com/product/tongyi

      [86]

      [32: https://www.aliyun.com/product/tongyi

      [87]

      [2: https://qwenlm.github.io/blog/qwen1.5/

      [88]

      9: https://github.com/QwenLM/Qwen3

      [89]

      [23: https://www.alibabacloud.com/blog/qwen-ecosystem-expands-rapidly-accelerating-ai-adoption-across-industries_602330

      [90]

      [23: https://www.alibabacloud.com/blog/qwen-ecosystem-expands-rapidly-accelerating-ai-adoption-across-industries_602330

      [91]

      [31: https://www.eet-china.com/mp/a452027.html

      [92]

      [37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

      [93]

      [26: https://www.alibabacloud.com/blog/602562

      [94]

      [26: https://www.alibabacloud.com/blog/602562

      [95]

      [26: https://www.alibabacloud.com/blog/602562

      [96]

      [37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

      [97]

      [37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

      [98]

      [37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

      [99]

      [24: https://www.grabon.in/indulge/tech/qwen-ai-users/

      [100]

      25: https://www.shakudo.io/blog/top-9-large-language-models

      [101]

      [7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

      [102]

      [7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

      [103]

      [26: https://www.alibabacloud.com/blog/602562

      [104]

      [17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [105]

      33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [106]

      [38: https://felloai.com/2025/09/what-is-the-best-ai-model-in-september-2025-ultimate-comparison/

      [107]

      [38: https://felloai.com/2025/09/what-is-the-best-ai-model-in-september-2025-ultimate-comparison/

      [108]

      [3: https://www.datacamp.com/blog/qwen-2-5-max

      [109]

      4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [110]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [111]

      8: https://en.wikipedia.org/wiki/Qwen

      [112]

      [4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

      [113]

      6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

      [114]

      [8: https://en.wikipedia.org/wiki/Qwen

      [115]

      [8: https://en.wikipedia.org/wiki/Qwen

      [116]

      [8: https://en.wikipedia.org/wiki/Qwen

      [117]

      [17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [118]

      33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [119]

      [1: https://arxiv.org/pdf/2505.09388

      [120]

      17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [121]

      [1: https://arxiv.org/pdf/2505.09388

      [122]

      17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

      [123]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [124]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [125]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [126]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [127]

      [33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

      [128]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [129]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [130]

      42: https://ashishchadha11944.medium.com/gpt-5-in-2025-leader-of-the-new-llm-era-benchmarks-and-rival-comparison-5786e25b5ae4

      [131]

      [18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

      [132]

      [12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

      [133]

      [8: https://en.wikipedia.org/wiki/Qwen

      [134]

      [8: https://en.wikipedia.org/wiki/Qwen

      [135]

      11: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list&utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bIpWoAA0d8Ugha6WmwlzJEFeLwluYNZSx-7AAH9r5Kdq3UTcUJwY1X4RnbL0IOgx_32-d

      [136]

      [8: https://en.wikipedia.org/wiki/Qwen

      [137]

      [44: https://finance.yahoo.com/news/deepseek-qwen-ai-besting-chatgpt-135433659.html

      [138]

      [32: https://www.aliyun.com/product/tongyi

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      尹路:大連鯤城拖欠大量隊員沖甲獎金,怎么過的準入

      尹路:大連鯤城拖欠大量隊員沖甲獎金,怎么過的準入

      懂球帝
      2025-12-26 23:41:05
      26歲女星被傳婚內出軌,本尊回應揭更驚人真相:我早已離婚

      26歲女星被傳婚內出軌,本尊回應揭更驚人真相:我早已離婚

      科學發掘
      2025-12-26 12:38:45
      1996年,士兵見一位 71 歲老人受凍,好心帶他進軍營取暖,誰料老人見到首長竟高聲呼喊:任務已完成!

      1996年,士兵見一位 71 歲老人受凍,好心帶他進軍營取暖,誰料老人見到首長竟高聲呼喊:任務已完成!

      文史明鑒
      2025-12-25 17:31:12
      華為Mate80Pro升級鴻蒙6.0.125實測,這才是純血完全體該有的樣子

      華為Mate80Pro升級鴻蒙6.0.125實測,這才是純血完全體該有的樣子

      小8說科技
      2025-12-25 20:44:24
      念舊!43歲卡卡曬16年前與C羅圣誕祝福視頻引熱議,球迷:短暫的美麗

      念舊!43歲卡卡曬16年前與C羅圣誕祝福視頻引熱議,球迷:短暫的美麗

      側身凌空斬
      2025-12-26 11:36:34
      47歲鮑莉陪郭京飛大孤山祈福,臉色蠟黃老人味好濃,普通主婦摸樣

      47歲鮑莉陪郭京飛大孤山祈福,臉色蠟黃老人味好濃,普通主婦摸樣

      秋姐居
      2025-12-10 14:25:34
      南海撞機王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

      南海撞機王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

      鶴羽說個事
      2025-12-12 14:31:49
      已經爛到沒有底線了

      已經爛到沒有底線了

      徐幫陽
      2025-12-25 20:52:14
      江蘇省委副秘書長仲紅巖,已履新職!王茂芳、劉偉,已任隨州市人大常委會黨組成員!

      江蘇省委副秘書長仲紅巖,已履新職!王茂芳、劉偉,已任隨州市人大常委會黨組成員!

      娛樂圈的筆娛君
      2025-12-26 13:11:57
      潮州偶遇向佐不穿女裝挺帥,但妝化得太濃還做了美甲脂粉氣太重了

      潮州偶遇向佐不穿女裝挺帥,但妝化得太濃還做了美甲脂粉氣太重了

      動物奇奇怪怪
      2025-12-26 03:25:26
      【2025.12.26】扒醬料不停:那些你不知道的八卦一二三

      【2025.12.26】扒醬料不停:那些你不知道的八卦一二三

      娛樂真爆姐
      2025-12-26 23:11:27
      老舅:崔國明永遠也不明白,達達花35萬巨資買下荒山的真相是什么

      老舅:崔國明永遠也不明白,達達花35萬巨資買下荒山的真相是什么

      白公子探劇
      2025-12-26 23:33:21
      川名麻耶承認:我就是孫正義女兒!

      川名麻耶承認:我就是孫正義女兒!

      每日經濟新聞
      2025-12-26 00:29:06
      60:51票!臺島彈劾提案通過,賴清德時代或告終,盧秀燕一針見血

      60:51票!臺島彈劾提案通過,賴清德時代或告終,盧秀燕一針見血

      時時有聊
      2025-12-26 16:52:03
      重慶市兩江地區檢察院更名為重慶市臨江地區檢察院

      重慶市兩江地區檢察院更名為重慶市臨江地區檢察院

      澎湃新聞
      2025-12-26 22:44:26
      人形機器人2025轉型實錄:脫下實驗室“長衫”,穿上工廠“工裝”|2025中國經濟年報

      人形機器人2025轉型實錄:脫下實驗室“長衫”,穿上工廠“工裝”|2025中國經濟年報

      華夏時報
      2025-12-25 16:10:18
      羅永浩沒想到,西貝風波3個月后,賈國龍已為自己安排好兩條后路

      羅永浩沒想到,西貝風波3個月后,賈國龍已為自己安排好兩條后路

      卷史
      2025-12-26 18:22:27
      章澤天迪拜曬圣誕美照!豪門闊太的“松弛感”?

      章澤天迪拜曬圣誕美照!豪門闊太的“松弛感”?

      娛樂領航家
      2025-12-27 00:00:03
      李小璐寫真生圖高清

      李小璐寫真生圖高清

      翩翩明星
      2025-11-14 09:39:36
      穿上這套夜跑裝備,輕松成為街頭焦點!

      穿上這套夜跑裝備,輕松成為街頭焦點!

      獨角showing
      2025-12-11 16:23:49
      2025-12-27 01:23:00
      機器學習與Python社區 incentive-icons
      機器學習與Python社區
      機器學習算法與Python
      3235文章數 11081關注度
      往期回顧 全部

      科技要聞

      收割3000億!拼多多"土辦法"熬死所有巨頭

      頭條要聞

      老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

      頭條要聞

      老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

      體育要聞

      開翻航母之后,他決定親手造一艘航母

      娛樂要聞

      王傳君生病后近照變化大,面部浮腫

      財經要聞

      投資巨鱷羅杰斯最新持倉:只留四種資產

      汽車要聞

      兩大CEO試駕 華為乾崑*啟境開啟首款獵裝轎跑路測

      態度原創

      數碼
      旅游
      家居
      教育
      藝術

      數碼要聞

      支持95dB環境通話降噪!小米Buds 6圖賞

      旅游要聞

      多家博物館公告:暫停開放

      家居要聞

      格調時尚 智慧品質居所

      教育要聞

      鼓樓熱門民辦動了!2026小升初最新消息

      藝術要聞

      你絕對想不到,佛陀微笑隱藏的秘密竟然是!

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 97超碰人人| 亚洲成a人v欧美综合天堂| 亚洲精品不卡av在线播放 | 91青青草视频在线观看| 午夜成人亚洲理伦片在线观看 | 人人爽人人爽人人片av免费| 8x国产精品视频| 极品人妻少妇| 17岁日本免费bd完整版观看| 国产精品一线二线三线| 大地资源中文第三页| 亚洲国产专区| 96人妻| 亚洲18禁一区二区三区| 伊人久久大香线蕉网av| 色屁屁www影院免费观看| 最新国产在线拍揄自揄视频| 安康市| 日本a网| 99自拍视频| 内射少妇18| 中文无码日韩欧免费视频| 久久久www成人免费精品| 伊人无码网| av无码免费| 亚洲日本91| 亚洲1234区| 俺去啦中文网| 国产成人无码AV片在线观看不卡| 国产99在线 | 免费| 高中女无套中出17p| 中国精品18videosex性中国| 亚洲欧美成人精品香蕉网| 艳妇乳肉豪妇荡乳| 色伊人亚洲综合网站| 久久先锋男人av资源网站| 女人18片毛片60分钟| 四虎成人精品无码永久在线| 五十路丰满中年熟女中出| 久久久综合香蕉尹人综合网| 日韩 高清 无码 人妻|