<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      讓大模型運行如飛的神奇壓縮技術—MWS AI團隊的COMPOT創(chuàng)新方法

      0
      分享至


      這項由MWS AI基礎研究中心聯(lián)合ITMO大學開展的研究,發(fā)表于2026年2月的預印本論文(arXiv:2602.15200v1),為解決大型人工智能模型的存儲和運行效率問題提供了全新思路。

      當今世界,人工智能大模型就像一座座龐大的數(shù)字圖書館,存儲著海量的知識和能力。這些模型在語言理解、圖像識別、語音處理等方面表現(xiàn)卓越,但它們也面臨著一個嚴峻問題——體積過于龐大。以目前流行的大語言模型為例,一個模型可能包含數(shù)十億甚至數(shù)千億個參數(shù),相當于需要幾十GB甚至上百GB的存儲空間。這就像要在手機里裝下一整座圖書館,既占用大量存儲空間,運行時也消耗驚人的計算資源。

      為了解決這個問題,研究人員們一直在尋找給模型"瘦身"的方法。傳統(tǒng)的壓縮方法就像是簡單地把書頁撕掉一些,雖然能減少體積,但往往會損失重要信息,導致模型性能大幅下降。而MWS AI團隊提出的COMPOT方法,則像是發(fā)明了一種全新的壓縮技術,既能大幅減少模型體積,又能最大程度保持原有性能。

      這項研究的核心創(chuàng)新在于將模型參數(shù)的存儲方式從傳統(tǒng)的"整體打包"改為"分類歸檔"。研究團隊巧妙地運用了正交字典學習的數(shù)學原理,就像圖書管理員重新整理圖書館一樣,將原本雜亂存放的知識重新分類整理,用更加高效的方式進行存儲。更令人驚喜的是,他們還開發(fā)了一套智能分配策略,能夠自動識別模型中哪些部分更重要,哪些部分可以進行更激進的壓縮,就像智能管家知道家里哪些物品經(jīng)常使用、哪些可以壓縮存放一樣。

      實驗結果顯示,COMPOT方法在多個主流模型上都取得了優(yōu)異表現(xiàn),在保持80%原始性能的情況下,能夠將模型體積壓縮到原來的20%到60%。這意味著原本需要16GB存儲空間的模型,現(xiàn)在可能只需要3-10GB就能正常運行,大大降低了部署成本和硬件要求。

      一、傳統(tǒng)壓縮方法的局限性

      要理解COMPOT的創(chuàng)新之處,我們需要先了解傳統(tǒng)模型壓縮方法面臨的挑戰(zhàn)。目前主流的壓縮技術主要依賴奇異值分解(SVD),這種方法就像用一個萬能鑰匙來處理所有的鎖。具體來說,SVD方法會為整個權重矩陣找到一個統(tǒng)一的低維空間表示,就如同試圖用一個標準模板來描述所有不同形狀的物品。

      這種"一刀切"的方式雖然計算簡單,但存在明顯缺陷。模型中的不同部分往往具有不同的特征和重要性,就像一個復雜機器中的齒輪、彈簧、電路板各有不同的作用和結構。用同一種方式處理所有部分,必然會造成信息丟失。特別是當壓縮比例較高時,這種方法往往導致模型性能急劇下降,就像用同一個尺寸的包裝盒來裝不同大小的物品,小的浪費空間,大的裝不下。

      另一方面,稀疏字典學習方法雖然理論上更靈活,但傳統(tǒng)實現(xiàn)方式需要大量迭代計算。這就像要重新整理一個巨大的圖書館,需要反復調(diào)整書籍分類和擺放位置,直到找到最優(yōu)方案。對于包含數(shù)十億參數(shù)的大模型來說,這種迭代過程可能需要數(shù)天甚至數(shù)周時間,實用性大打折扣。

      此外,現(xiàn)有方法大多采用統(tǒng)一的壓縮策略,沒有考慮到模型不同層次和不同組件的重要性差異。這就像對待一臺精密儀器時,不區(qū)分核心處理器和外圍電路的重要性,一律進行同樣程度的簡化,結果往往是關鍵功能受損。

      二、COMPOT的核心創(chuàng)新思路

      面對傳統(tǒng)方法的種種局限,研究團隊提出了COMPOT(Calibration-Optimized Matrix Procrustes Orthogonalization for Transformers)框架。這個名字雖然聽起來復雜,但其核心思想?yún)s相當直觀——既然不同的模型組件有不同的特點,為什么不為它們量身定制不同的壓縮方案呢?

      COMPOT的第一個關鍵創(chuàng)新是引入正交字典學習。回到圖書館的比喻,傳統(tǒng)方法就像是強制要求所有書籍都必須按照同一個分類標準排列,而正交字典學習則允許為不同類型的書籍建立不同的分類體系。數(shù)學書可以按主題分類,小說可以按作者分類,工具書可以按使用頻率分類。這種靈活性使得每種類型的內(nèi)容都能以最適合的方式進行組織。

      在技術層面,正交字典學習將原始的權重矩陣分解為兩個部分:一個正交字典矩陣和一個稀疏系數(shù)矩陣。正交字典就像是一套標準的"基礎構件",而稀疏系數(shù)則告訴我們?nèi)绾斡眠@些構件來重建原始信息。由于字典是正交的(相當于各個構件之間相互獨立),這種分解具有很好的數(shù)學性質,既能保證重建精度,又能簡化計算過程。

      COMPOT的第二個創(chuàng)新是開發(fā)了閉式解更新策略。傳統(tǒng)的字典學習需要反復迭代優(yōu)化,就像反復試驗才能找到最佳的整理方案。而COMPOT通過巧妙的數(shù)學變換,將這個復雜的優(yōu)化問題轉化為可以直接求解的數(shù)學公式。這就像是找到了整理圖書館的標準操作手冊,按照固定步驟就能快速達到最優(yōu)效果,不再需要反復試驗。

      具體來說,在正交約束條件下,字典更新變成了經(jīng)典的正交Procrustes問題,可以通過奇異值分解直接求得最優(yōu)解。而稀疏編碼步驟也簡化為硬閾值操作——只保留最重要的幾個系數(shù),其余置零。這種簡化不僅大幅提升了計算效率,還保證了解的最優(yōu)性。

      第三個創(chuàng)新是動態(tài)壓縮分配策略。研究團隊意識到,模型的不同部分對最終性能的貢獻并不相同,就像人體的不同器官有不同的重要性一樣。心臟和大腦顯然比手指甲更關鍵,因此在"瘦身"時也應該區(qū)別對待。COMPOT通過分析各個權重矩陣的奇異值分布,自動識別每個部分的重要性,然后在全局壓縮預算的約束下,為每個部分分配最合適的壓縮率。

      這種分配策略特別巧妙的地方在于,它不需要人工設定復雜的規(guī)則,而是通過數(shù)學方法自動發(fā)現(xiàn)最優(yōu)分配方案。系統(tǒng)會將所有權重矩陣的奇異值匯集到一個全局池中,然后根據(jù)重要性排序,優(yōu)先保留最重要的信息。同時,為了避免某些組件被過度壓縮或壓縮不足,系統(tǒng)還設置了上下限約束,確保每個部分都能得到合理的處理。

      三、技術實現(xiàn)的精妙之處

      COMPOT的技術實現(xiàn)體現(xiàn)了研究團隊對數(shù)學理論和工程實踐的深刻理解。整個壓縮過程可以比作一次精心策劃的搬家行動,需要既有總體規(guī)劃,又有具體執(zhí)行步驟。

      首先是數(shù)據(jù)預處理階段,也就是"搬家前的準備工作"。系統(tǒng)需要用少量校準數(shù)據(jù)來了解模型的運行特點,這就像搬家前要了解新房子的結構和布局。通過分析模型在處理這些校準數(shù)據(jù)時的激活模式,系統(tǒng)可以識別出哪些參數(shù)更活躍、哪些相對冗余。這個過程被稱為"數(shù)據(jù)感知白化",相當于為后續(xù)的壓縮操作提供了精確的"房屋測量報告"。

      接下來是核心的分解過程。對于每個權重矩陣,系統(tǒng)首先在"白化空間"中進行操作。白化空間就像是一個標準化的工作環(huán)境,在這里所有的操作都變得更加規(guī)整和可預測。在這個空間中,原始權重矩陣被分解為正交字典和稀疏系數(shù)兩部分。

      正交字典的更新使用Procrustes方法,這是一個經(jīng)典的矩陣優(yōu)化技術。可以把它想象成找到兩個形狀之間的最佳對應關系,就像拼圖時尋找最匹配的拼接方式。由于限制了字典必須是正交的,這個優(yōu)化問題有唯一的最優(yōu)解,可以通過奇異值分解直接計算得出。

      稀疏編碼步驟則更加直觀。在正交字典確定后,系統(tǒng)需要找到每一列數(shù)據(jù)在這個字典中的最佳稀疏表示。由于字典的正交性,這個問題的解就是簡單的硬閾值操作——計算數(shù)據(jù)在字典各個方向上的投影,保留最大的幾個投影值,其余設為零。這就像在眾多顏料中只選擇幾種最重要的來調(diào)配目標顏色。

      動態(tài)分配算法是整個系統(tǒng)的"智能調(diào)度中心"。它首先對所有權重矩陣進行規(guī)范化處理,確保不同矩陣之間具有可比性。然后計算每個矩陣的奇異值,并將所有奇異值匯總到一個全局列表中。系統(tǒng)會對這個列表進行排序,從小到大依次選擇要舍棄的奇異值,直到達到預設的壓縮目標。

      這個過程中,系統(tǒng)還會實施多層約束機制。首先是最小壓縮約束,確保每個矩陣都有一定程度的壓縮,避免某些矩陣完全不被壓縮而浪費全局預算。其次是最大壓縮約束,防止某些關鍵矩陣被過度壓縮而嚴重影響性能。最后是非有益分解處理,對于那些分解后反而增加存儲量的矩陣,系統(tǒng)會智能地跳過分解,直接保持原始形式。

      四、實驗驗證與性能表現(xiàn)

      為了驗證COMPOT方法的有效性,研究團隊進行了大規(guī)模的實驗驗證。這些實驗就像是對新藥進行臨床試驗,需要在各種不同條件下測試其安全性和有效性。實驗涵蓋了多個主流模型架構、不同的應用領域以及各種壓縮強度,形成了一個全面的性能評估體系。

      在模型架構方面,研究團隊選擇了當前最具代表性的幾個模型家族進行測試。Llama系列模型代表了當前大語言模型的主流技術路線,從1B參數(shù)的緊湊版本到30B參數(shù)的大型版本,覆蓋了不同規(guī)模的使用場景。OPT系列模型提供了另一種架構設計的參考,而Qwen系列則代表了中文優(yōu)化模型的特點。通過在這些不同架構上的測試,可以驗證COMPOT方法的普適性。

      應用領域的多樣性也是實驗設計的重要考慮。除了傳統(tǒng)的文本處理任務,研究團隊還測試了視覺-語言理解和語音識別等多模態(tài)應用。在視覺-語言任務中,他們使用了Qwen3-VL模型,在MMMU、OCRBench、RealWorldQA等標準測試集上評估性能。結果顯示,即使在20%的高壓縮率下,COMPOT方法仍能保持原模型66%的平均性能,而傳統(tǒng)SVD方法在同樣壓縮率下性能下降到37%。

      語音識別領域的測試使用了Whisper模型家族。這類模型的特點是需要處理連續(xù)的音頻信號,對時序信息的保持要求很高。實驗結果令人鼓舞:在LibriSpeech測試集上,壓縮后的Whisper Large模型的詞錯誤率僅從原始的2.74%上升到2.46%,甚至略有改善。這種現(xiàn)象可能是由于適度的正則化效果,類似于適當?shù)?修剪"有時反而能讓植物長得更好。

      壓縮強度的梯度測試揭示了COMPOT方法的穩(wěn)健性。在20%壓縮率(保留80%參數(shù))時,大多數(shù)模型能夠保持90%以上的原始性能。當壓縮率提升到40%時,性能保持率通常在80-85%之間。即使在60%的極限壓縮率下,多數(shù)模型仍能維持70%左右的性能,這對于資源受限的部署場景來說已經(jīng)相當實用。

      特別值得關注的是不同模型組件對壓縮的敏感性差異。實驗發(fā)現(xiàn),注意力機制中的查詢(Q)和鍵(K)投影相對更耐壓縮,而值(V)投影和輸出投影則更敏感。多層感知器(MLP)中的門控投影通常可以承受更高的壓縮率。COMPOT的動態(tài)分配策略能夠自動發(fā)現(xiàn)并利用這些差異,這正是其性能優(yōu)勢的重要來源。

      與現(xiàn)有方法的對比實驗進一步凸顯了COMPOT的優(yōu)勢。與傳統(tǒng)的SVD-LLM方法相比,COMPOT在各個壓縮率下都表現(xiàn)出顯著的性能優(yōu)勢。在與基于K-SVD的CoSpaDi方法的對比中,COMPOT不僅性能更好,計算時間也大幅縮短。以Llama3.2-1B模型為例,COMPOT的壓縮時間比CoSpaDi快了約24倍,這種效率提升對實際應用具有重要意義。

      五、與量化技術的完美結合

      COMPOT方法的另一個重要優(yōu)勢是與后訓練量化技術的良好兼容性。量化技術就像是將高清照片壓縮為較低分辨率版本,通過減少每個參數(shù)的表示精度來降低存儲需求。而COMPOT的結構化壓縮則是減少參數(shù)總數(shù)。兩種技術的結合就像是同時減少照片的分辨率和尺寸,能夠實現(xiàn)更高的壓縮效果。

      在與GPTQ(一種先進的4位量化方法)的結合實驗中,研究團隊發(fā)現(xiàn)了令人驚喜的協(xié)同效應。單獨使用GPTQ將模型量化到4位精度時,在Llama-7B模型上的WikiText-2困惑度為16.28。而先應用COMPOT壓縮再進行4位量化后,困惑度降低到9.62,性能反而有所提升。

      這種協(xié)同效應的原因可能在于,COMPOT的結構化分解為量化提供了更好的數(shù)值分布。通過正交字典分解,參數(shù)的數(shù)值范圍變得更加規(guī)整,量化過程中的舍入誤差得到了有效控制。同時,稀疏系數(shù)矩陣中的大量零值也為量化算法提供了額外的優(yōu)化空間。

      在實際的存儲預算限制下,這種結合方式展現(xiàn)出了顯著的實用價值。當目標是將模型壓縮到原始大小的25%時,傳統(tǒng)方法通常只能采用激進的量化策略,往往導致性能嚴重下降。而COMPOT+量化的組合方案可以采用更溫和的量化設置(比如保留更高的精度),同時通過結構化壓縮來達成存儲目標,從而獲得更好的性能保持。

      這種技術組合對于邊緣設備部署具有特殊意義。移動設備和嵌入式系統(tǒng)不僅存儲空間有限,計算能力也相對較弱。COMPOT壓縮后的模型不僅占用更少存儲,由于參數(shù)數(shù)量的減少,推理速度也會相應提升。再加上量化技術帶來的計算加速,整體的部署效率得到了大幅改善。

      六、實際應用前景與挑戰(zhàn)

      COMPOT技術的成功驗證為人工智能模型的實際部署開辟了新的可能性。這種壓縮技術最直接的受益者是那些計算資源有限的應用場景。比如,智能手機上的語音助手、邊緣計算設備上的圖像識別系統(tǒng)、或者需要快速響應的在線服務等。

      在移動設備應用方面,COMPOT的價值尤為突出。目前的大語言模型往往需要幾十GB的存儲空間和大量的運行內(nèi)存,這對手機等移動設備來說是巨大的負擔。通過COMPOT壓縮,一個原本需要16GB存儲的模型可能只需要3-6GB,這使得在手機上運行復雜AI模型變得現(xiàn)實。更重要的是,壓縮后的模型不僅存儲需求降低,推理速度也會相應提升,用戶體驗得到明顯改善。

      云服務部署是另一個重要的應用場景。對于云服務提供商來說,模型壓縮直接轉化為成本節(jié)約。存儲成本的降低是顯而易見的,但更重要的是運行時內(nèi)存和計算資源的節(jié)約。一臺服務器原本只能同時運行一個大模型實例,壓縮后可能可以運行三到四個實例,服務能力成倍提升。這種效率改善最終會轉化為更便宜的AI服務,讓更多用戶能夠享受到先進AI技術的便利。

      對于科研機構和小型公司來說,COMPOT技術降低了使用先進AI模型的門檻。原本需要昂貴的高端GPU才能運行的大模型,壓縮后可能在普通的消費級顯卡上就能正常工作。這種可訪問性的改善有助于AI技術的普及和創(chuàng)新的民主化。

      然而,COMPOT技術的實際應用也面臨一些挑戰(zhàn)。首先是壓縮過程本身的計算開銷。雖然COMPOT相比傳統(tǒng)方法已經(jīng)大幅提升了效率,但對于超大規(guī)模模型(比如千億參數(shù)的模型)來說,壓縮過程仍然需要大量計算資源。如何進一步優(yōu)化壓縮算法,或者開發(fā)分布式壓縮方案,是未來需要解決的技術問題。

      校準數(shù)據(jù)的質量和代表性是另一個重要考慮因素。COMPOT的效果很大程度上依賴于校準數(shù)據(jù)能否準確反映模型的實際使用模式。如果校準數(shù)據(jù)與真實應用場景差異較大,可能導致壓縮效果不理想。這就需要在實際部署時仔細選擇校準數(shù)據(jù),確保其能夠代表目標應用的特點。

      模型更新和維護也帶來了新的挑戰(zhàn)。當原始模型需要更新時,是重新訓練整個壓縮模型,還是尋找增量更新的方法,這都需要進一步的研究和工程實踐來解決。特別是對于需要持續(xù)學習和適應的AI系統(tǒng),如何在保持壓縮效果的同時支持模型演化,是一個有趣的研究方向。

      七、技術發(fā)展趨勢與未來展望

      COMPOT技術的成功不僅在于其當前的性能表現(xiàn),更重要的是它為模型壓縮領域指明了新的發(fā)展方向。傳統(tǒng)的"一刀切"壓縮方法正在被更智能、更精細的技術所取代。這種趨勢反映了人工智能領域從粗放式發(fā)展向精細化優(yōu)化的轉變。

      自適應壓縮策略代表了未來發(fā)展的一個重要方向。目前的COMPOT雖然已經(jīng)實現(xiàn)了不同組件的差異化處理,但這種差異化主要基于靜態(tài)的數(shù)學分析。未來的技術可能會更進一步,根據(jù)模型的實際使用模式和性能反饋來動態(tài)調(diào)整壓縮策略。比如,系統(tǒng)可能會監(jiān)控模型在不同任務上的表現(xiàn),自動識別哪些組件對當前任務更重要,然后相應地調(diào)整壓縮配置。

      硬件感知的壓縮優(yōu)化是另一個值得關注的趨勢。不同的計算硬件平臺具有不同的特性:有些更適合稠密計算,有些更擅長稀疏操作;有些內(nèi)存帶寬較高,有些計算能力更強。未來的壓縮技術可能會根據(jù)目標硬件的特性來定制壓縮方案,實現(xiàn)硬件和算法的協(xié)同優(yōu)化。

      多模態(tài)模型的壓縮也是一個具有挑戰(zhàn)性的研究方向。隨著AI系統(tǒng)越來越多地處理文本、圖像、音頻等多種模態(tài)的信息,如何在保持跨模態(tài)理解能力的同時實現(xiàn)有效壓縮,需要新的理論和方法。COMPOT的成功經(jīng)驗為解決這類問題提供了有價值的啟示。

      壓縮技術與模型架構設計的融合也值得期待。目前的做法是先設計模型架構,然后進行壓縮。但未來可能會出現(xiàn)"壓縮感知"的架構設計,即在設計模型時就考慮后續(xù)的壓縮需求,讓模型天然具備更好的可壓縮性。這種設計理念可能會催生全新的模型架構。

      自動化程度的進一步提升也是發(fā)展趨勢之一。雖然COMPOT已經(jīng)在很大程度上實現(xiàn)了自動化,但仍然需要一些人工設定的超參數(shù)。未來的技術可能會更加智能,能夠根據(jù)具體的應用需求和約束條件,自動搜索最優(yōu)的壓縮配置,真正做到"一鍵壓縮"。

      在理論層面,研究人員正在探索更深層次的壓縮原理。為什么某些信息可以被安全地丟棄,而另一些信息卻至關重要?如何量化信息的重要性?這些基礎理論問題的解答將為開發(fā)更高效的壓縮方法提供指導。

      說到底,COMPOT技術的出現(xiàn)標志著人工智能模型壓縮領域進入了一個新的發(fā)展階段。它不僅解決了當前大模型部署面臨的實際問題,更重要的是為這個領域的未來發(fā)展奠定了堅實基礎。通過巧妙地結合數(shù)學理論與工程實踐,COMPOT展示了如何在保持模型核心能力的同時大幅降低資源需求。

      這項研究的意義遠超技術本身。它讓先進的AI技術變得更加親民,降低了使用門檻,有助于AI技術的普及和創(chuàng)新的民主化。當更多的開發(fā)者、研究者和企業(yè)能夠輕松使用這些強大的AI工具時,整個社會都將從中受益。從這個角度看,COMPOT不僅是一項技術創(chuàng)新,更是推動AI技術普惠的重要推動力。

      隨著這項技術的不斷完善和廣泛應用,我們有理由相信,未來的AI系統(tǒng)將會更加高效、更加普及,為人類社會的發(fā)展帶來更大的價值。有興趣深入了解技術細節(jié)的讀者,可以通過論文編號arXiv:2602.15200v1查閱完整的研究報告。

      Q&A

      Q1:COMPOT壓縮方法與傳統(tǒng)SVD壓縮有什么根本區(qū)別?

      A:傳統(tǒng)SVD方法就像用一把萬能鑰匙處理所有鎖,為整個權重矩陣找一個統(tǒng)一的低維表示。而COMPOT采用正交字典學習,允許不同部分用不同的"鑰匙",能夠更靈活地處理模型各組件的差異,同時通過閉式解避免了傳統(tǒng)字典學習的迭代計算,大幅提升效率。

      Q2:COMPOT壓縮后的模型能保持多少原始性能?

      A:根據(jù)實驗結果,在20%壓縮率下COMPOT通常能保持90%以上的原始性能,40%壓縮率時性能保持率在80-85%,即使60%的高壓縮率下也能維持70%左右性能。這個表現(xiàn)明顯優(yōu)于傳統(tǒng)SVD方法,特別是在高壓縮率場景下優(yōu)勢更加明顯。

      Q3:普通開發(fā)者如何使用COMPOT技術壓縮自己的模型?

      A:目前COMPOT還主要處于研究階段,代碼已開源供研究使用。對于實際應用,開發(fā)者需要準備少量校準數(shù)據(jù)來分析模型特性,然后系統(tǒng)會自動識別各部分重要性并分配壓縮比例,整個過程相對自動化,不需要復雜的手工調(diào)參。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      是兵不厭詐,還是被以裹挾?美下場打伊朗,將把局勢推向何方?

      是兵不厭詐,還是被以裹挾?美下場打伊朗,將把局勢推向何方?

      國是直通車
      2026-02-28 23:22:03
      最新!以軍發(fā)動大規(guī)模空襲

      最新!以軍發(fā)動大規(guī)模空襲

      環(huán)球時報國際
      2026-03-01 18:13:27
      美方扶持的4位中國富豪開始露頭了:在華瘋狂撈金,扭頭捐給美國

      美方扶持的4位中國富豪開始露頭了:在華瘋狂撈金,扭頭捐給美國

      古史青云啊
      2026-02-20 16:23:31
      首日戰(zhàn)況:美以三板斧襲擊伊朗斬首戰(zhàn)果顯著,哈梅內(nèi)伊及親屬遇難

      首日戰(zhàn)況:美以三板斧襲擊伊朗斬首戰(zhàn)果顯著,哈梅內(nèi)伊及親屬遇難

      裝甲鏟史官
      2026-03-01 10:32:21
      伊朗前總統(tǒng)內(nèi)賈德遇襲身亡

      伊朗前總統(tǒng)內(nèi)賈德遇襲身亡

      財聯(lián)社
      2026-03-01 21:39:46
      傾家蕩產(chǎn)移居美國,得絕癥回國蹭醫(yī)保,工作人員:外籍人員不報銷

      傾家蕩產(chǎn)移居美國,得絕癥回國蹭醫(yī)保,工作人員:外籍人員不報銷

      涼了時光人
      2026-02-28 17:43:57
      紅牌+點球!曼聯(lián)強勢逆轉:三年后再回前3,鋒線高中鋒徹底激活!

      紅牌+點球!曼聯(lián)強勢逆轉:三年后再回前3,鋒線高中鋒徹底激活!

      話體壇
      2026-03-02 00:31:21
      穆帥:若證實普雷斯蒂安尼涉嫌歧視那他就離隊;我不會去皇馬

      穆帥:若證實普雷斯蒂安尼涉嫌歧視那他就離隊;我不會去皇馬

      懂球帝
      2026-03-01 20:15:35
      女子回湖北婆家過年,車被妯娌砸稀爛,報警后絕不和解,結局爽了

      女子回湖北婆家過年,車被妯娌砸稀爛,報警后絕不和解,結局爽了

      離離言幾許
      2026-02-27 21:13:58
      哈梅內(nèi)伊身亡,伊朗如何“活下去”

      哈梅內(nèi)伊身亡,伊朗如何“活下去”

      中國新聞周刊
      2026-03-01 22:44:01
      卡里克主場5連勝!曼聯(lián)隊史第2人,通過最大考驗,對手主帥點贊

      卡里克主場5連勝!曼聯(lián)隊史第2人,通過最大考驗,對手主帥點贊

      奧拜爾
      2026-03-02 00:03:08
      3月3日元宵節(jié),牢記:1不留,2不洗,3不穿,4不空!馬年大吉

      3月3日元宵節(jié),牢記:1不留,2不洗,3不穿,4不空!馬年大吉

      阿龍美食記
      2026-03-01 16:17:49
      俄媒警告中國:美國打伊朗只是幌子,目的是逼解放軍到太平洋決戰(zhàn)

      俄媒警告中國:美國打伊朗只是幌子,目的是逼解放軍到太平洋決戰(zhàn)

      阿嘵田侃故事
      2026-02-28 20:21:18
      陳盈駿:我覺得蠻可惜的,大家為了這兩場比賽準備得非常多

      陳盈駿:我覺得蠻可惜的,大家為了這兩場比賽準備得非常多

      懂球帝
      2026-03-01 19:12:04
      世預賽-日本男籃力克韓國穩(wěn)居小組第一 霍金森24+7李賢重28+11

      世預賽-日本男籃力克韓國穩(wěn)居小組第一 霍金森24+7李賢重28+11

      醉臥浮生
      2026-03-01 14:54:49
      亂世之秋誰會成為波斯新掌門?為何說伊朗之變對烏克蘭是大利好?

      亂世之秋誰會成為波斯新掌門?為何說伊朗之變對烏克蘭是大利好?

      史政先鋒
      2026-03-01 20:02:01
      美軍空襲伊朗,首次投用秘密武器“盧卡斯” 系仿制伊朗無人機

      美軍空襲伊朗,首次投用秘密武器“盧卡斯” 系仿制伊朗無人機

      上游新聞
      2026-03-01 20:47:16
      美元拋售潮來了!2 萬億海外美元正瘋狂回流,人民幣殺瘋了

      美元拋售潮來了!2 萬億海外美元正瘋狂回流,人民幣殺瘋了

      白淺娛樂聊
      2026-03-01 01:47:54
      美媒感慨:若不是中國還在反抗特朗普,幾乎全世界都向他投降了

      美媒感慨:若不是中國還在反抗特朗普,幾乎全世界都向他投降了

      悅心知足
      2026-02-21 23:03:46
      伊朗宣布斬首以色列空軍司令,摧毀意大利海軍基地!

      伊朗宣布斬首以色列空軍司令,摧毀意大利海軍基地!

      勝研集
      2026-03-02 00:05:34
      2026-03-02 01:04:49
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業(yè)世界
      7389文章數(shù) 553關注度
      往期回顧 全部

      科技要聞

      榮耀發(fā)布機器人手機、折疊屏、人形機器人

      頭條要聞

      媒體:美以能精準"斬首"背后 摩薩德的"手筆"令人咋舌

      頭條要聞

      媒體:美以能精準"斬首"背后 摩薩德的"手筆"令人咋舌

      體育要聞

      火箭輸給熱火:烏度卡又輸斯波教練

      娛樂要聞

      黃景瑜 李雪健坐鎮(zhèn)!38集犯罪大劇來襲

      財經(jīng)要聞

      中東局勢升級 如何影響A股、黃金和原油

      汽車要聞

      理想汽車2月交付26421輛 歷史累計交付超159萬輛

      態(tài)度原創(chuàng)

      游戲
      房產(chǎn)
      藝術
      親子
      時尚

      以《生化危機》命名?Capcom解答對RE引擎的誤讀

      房產(chǎn)要聞

      濱江九小也來了!集齊海僑北+哈羅、寰島...江東教育要炸了!

      藝術要聞

      看!這位伊朗超模如何顛覆你的美麗認知!

      親子要聞

      金龜子女兒流產(chǎn)后,為兒子舉辦2歲生日宴,三個卡通可愛的蛋糕

      今年春天最流行的4件衛(wèi)衣,照著穿就很好看

      無障礙瀏覽 進入關懷版