<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      谷歌突破性發現:AI訓練時"偷懶"反而更聰明

      0
      分享至


      在人工智能的發展歷程中,有一個幾乎所有研究者都深信不疑的常識:訓練AI模型時,必須充分利用每一次計算機反向傳播產生的梯度信息,對所有參數進行密集更新,這樣才能達到最好的訓練效果。然而,最近來自西北大學和谷歌公司的聯合研究團隊卻發現了一個令人震驚的事實——讓AI在訓練過程中"偷個懶",隨機跳過一半的參數更新,竟然能獲得更好的訓練效果。

      這項顛覆性研究發表于2026年2月的arXiv預印本平臺,論文編號為arXiv:2602.15322v1,研究團隊由西北大學和谷歌的科學家組成,他們在大型語言模型的訓練優化領域取得了令人矚目的突破。對于感興趣深入了解技術細節的讀者,可以通過這個編號在學術數據庫中查詢完整論文。

      研究團隊的發現就像是在烹飪界發現了一個反直覺的秘密:做菜時故意漏掉一些步驟,最終做出的菜反而更美味。在AI訓練這道"大餐"中,傳統做法是把每一個"調料"(參數更新)都精確地加入,而新方法則是隨機地跳過一半調料,結果卻燒出了更香的"菜"。

      具體來說,研究人員開發了兩種新的優化方法。第一種叫做SkipUpdate,它的工作原理就像拋硬幣決定是否更新某個參數塊——硬幣正面就更新,反面就跳過。更神奇的是,即使丟掉了一半的更新信息,這種方法仍然能持續超越目前最先進的優化器,包括被廣泛使用的Adam優化器和最新的Muon優化器。

      在此基礎上,團隊又提出了更加精巧的第二種方法——Magma(動量對齊梯度遮蔽)。如果說SkipUpdate是盲目的"拋硬幣",那么Magma就像是一個聰明的"美食家",它會根據當前梯度與歷史動量的一致性來決定是否更新參數。當兩者方向一致時,說明這個更新是可靠的,就允許更新;當兩者方向沖突時,說明可能存在噪聲干擾,就選擇跳過。

      為了驗證這種"偷懶"策略的效果,研究團隊進行了大量實驗。他們在標準的C4數據集上訓練了從6000萬到10億參數規模不等的Llama模型,結果顯示Magma在所有規模上都表現出色。特別是在10億參數的大模型上,Magma相比Adam優化器降低了19%的困惑度,相比Muon優化器也降低了9%的困惑度。困惑度越低意味著模型的預測能力越強,這個提升幅度在AI領域已經是相當顯著的進步了。

      更讓人驚訝的是,這種"偷懶"不僅沒有增加計算成本,反而讓訓練過程更加穩定。傳統的密集更新就像是在崎嶇山路上開車時始終踩著油門,雖然前進速度快,但容易翻車。而Magma的做法更像是一個經驗豐富的司機,在合適的時候踩油門,在危險的時候松油門,最終不僅更安全地到達目的地,速度還更快。

      **一、為什么"偷懶"反而更有效?**

      要理解為什么隨機跳過參數更新竟然能提升性能,我們需要從一個全新的角度來看待AI訓練過程。傳統觀點認為,既然計算機已經花費大量時間計算出了梯度信息,那當然要充分利用這些信息來更新所有參數。但研究團隊發現,這種想法忽略了一個重要問題:并非所有的梯度信息都是有益的。

      在深度學習的訓練過程中,梯度信息往往充滿了噪聲。這就像在嘈雜的餐廳里聽朋友說話,你不僅會聽到朋友的聲音,還會聽到周圍各種雜音。如果你試圖對聽到的每一個聲音都做出反應,反而會被誤導。聰明的做法是有選擇性地關注,過濾掉明顯的噪聲。

      研究團隊通過數學分析發現,隨機遮蔽參數更新實際上引入了一種隱含的幾何正則化效應。這個聽起來復雜的概念用簡單話說就是:遮蔽更新會自動懲罰那些指向"陡峭方向"的參數變化,而偏向于"平緩方向"的更新。在優化的世界里,平緩的方向通常對應著更穩定、泛化能力更強的解決方案。

      這種機制的工作原理可以用爬山的比喻來理解。在尋找山峰的過程中,傳統方法會嚴格按照指南針(梯度)指示的方向前進,即使這個方向可能指向懸崖邊緣。而新方法則會隨機忽略一些指南針讀數,這種"不完全服從"反而讓登山者避開了陡峭的懸崖,選擇了更安全、更穩定的路徑到達山頂。

      研究團隊通過理論分析證明,這種遮蔽更新的數學期望雖然保持不變(即總體方向不會偏離),但會產生一個額外的曲率依賴的正則化項。這個正則化項會根據局部地形的陡峭程度自動調整懲罰力度——越陡峭的地方受到的懲罰越大,從而引導優化過程避開這些"危險區域"。

      更有趣的是,這種效應在變壓器(Transformer)架構中特別有效。變壓器的Hessian矩陣(可以理解為地形的"陡峭度地圖")往往呈現明顯的塊對角結構,也就是說,不同參數塊之間的相互影響相對較小,主要的曲率信息集中在各個塊的內部。在這種情況下,按塊進行隨機遮蔽正好能夠針對性地處理每個塊內的陡峭方向,實現精準的幾何正則化。

      **二、從隨機遮蔽到智能選擇——Magma的進化之路**

      雖然簡單的隨機遮蔽(SkipUpdate)已經展現出令人驚訝的效果,但研究團隊并沒有滿足于此。他們意識到,如果能夠更聰明地決定何時跳過更新,而不是完全隨機地"拋硬幣",應該能獲得更好的效果。

      這就引出了Magma算法的核心思想——利用動量與梯度的對齊程度來指導遮蔽決策。在優化算法中,動量可以理解為參數更新的"慣性",它記錄了過去一段時間內參數變化的總體趨勢。當前時刻的梯度則代表了即時的"推力"方向。

      如果我們把優化過程想象成駕駛汽車,動量就像是汽車當前的行駛方向和速度,而梯度就像是路標指示的方向。當路標方向與汽車行駛方向一致時,說明我們走在正確的道路上,應該繼續前進;當兩者方向相反時,可能意味著遇到了錯誤的路標或者需要急轉彎,這時候保持原有方向可能更安全。

      Magma的具體工作機制是這樣的:對于每個參數塊,它會計算當前梯度與累積動量之間的余弦相似度。相似度高意味著兩者方向一致,此時更新是可信的,算法會給予較高的更新概率;相似度低甚至為負值時,說明當前梯度可能受到噪聲干擾,與長期趨勢相矛盾,此時算法會降低更新概率。

      為了避免過于激進的決策,Magma還引入了一個溫度參數來調節敏感度,并使用指數移動平均來平滑對齊分數的變化。這就像是給司機配備了一個智能的導航助手,它不僅會根據當前路況給出建議,還會考慮歷史行駛數據,避免因為瞬時信息的波動而做出錯誤決策。

      從實現的角度來看,Magma的設計非常巧妙。它可以作為一個"插件"包裝任何現有的優化器,無需修改優化器的內部邏輯,也不會增加額外的內存開銷或計算成本。這種設計使得研究者和工程師可以輕松地在現有項目中嘗試這種新方法,而不需要對代碼架構進行大幅改動。

      **三、實驗驗證:從理論到實踐的完美轉化**

      為了驗證這些"反直覺"方法的有效性,研究團隊設計了一系列全面而嚴格的實驗。他們選擇了當前最熱門的大型語言模型訓練任務作為測試平臺,這不僅因為語言模型是當前AI研究的前沿領域,更因為語言模型訓練過程中面臨的優化挑戰最為復雜和典型。

      在標準的C4數據集上,團隊訓練了四種不同規模的Llama-2模型:6000萬、1.3億、3.5億和10億參數。這種多規模的測試設計很重要,因為不同規模的模型往往呈現出不同的優化特性。小模型可能更容易訓練,而大模型則可能面臨更多的優化困難。

      實驗結果令人震驚。在所有規模的模型上,Magma都表現出了持續而顯著的性能提升。特別值得注意的是,這種提升隨著模型規模的增大而更加明顯。在最大的10億參數模型上,Magma相比Adam優化器實現了19%的困惑度降低,相比最新的Muon優化器也有9%的提升。

      為了進一步驗證方法的普適性,團隊還在混合專家(MoE)架構上進行了測試。MoE是當前大型語言模型的一個重要發展方向,它通過動態路由機制讓不同的"專家"網絡處理不同類型的輸入,從而在保持計算效率的同時擴大模型容量。但這種架構也帶來了更復雜的優化挑戰,包括負載均衡、稀疏梯度流等問題。

      在Nano MoE框架上的實驗結果再次證實了Magma的有效性。即使在這種更加復雜的架構下,Magma仍然能夠顯著提升訓練效果,特別是與Muon優化器結合時,取得了所有測試中的最佳性能。這表明隨機遮蔽的正則化效應與精密預條件器的優化能力可以很好地互補,共同應對復雜的優化挑戰。

      團隊還設計了一個專門的對照實驗來研究重尾噪聲對優化效果的影響。在真實的語言模型訓練中,梯度噪聲往往呈現重尾分布,即偶爾會出現極大的梯度值。這種噪聲特性使得優化過程更加不穩定。實驗結果顯示,在重尾噪聲環境下,Magma相比傳統優化器的優勢更加明顯,進一步證實了其在處理噪聲干擾方面的優越性。

      **四、深度機制分析:數學美學與工程智慧的結合**

      為了讓讀者更好地理解Magma為什么有效,我們需要深入探討其背后的數學機制。雖然數學分析可能顯得抽象,但研究團隊通過巧妙的理論構建,讓這些機制變得相當直觀。

      從數學角度來看,Magma的核心貢獻在于將隨機遮蔽轉化為了一種特殊的幾何正則化。當我們隨機跳過某些參數更新時,相當于在優化目標函數中隱含地添加了一個曲率依賴的懲罰項。這個懲罰項的強度與局部Hessian矩陣的特征值成正比,也就是說,曲率越大(地形越陡峭)的方向受到的懲罰越重。

      這種機制的巧妙之處在于,它不需要顯式計算昂貴的二階信息(Hessian矩陣),而是通過隨機性巧妙地近似了這種效應。這就像是用一種非常廉價的方法獲得了昂貴的二階優化信息,實現了性能與效率的完美平衡。

      研究團隊通過詳細的數學推導證明,在假設條件下,Magma的收斂速度不僅沒有因為跳過更新而變慢,反而可能因為降低了有效噪聲水平而變快。這個反直覺的結果背后的原理是:雖然跳過更新減少了每步的"前進距離",但同時也減少了噪聲的干擾,使得每一步都更加"準確",最終總體效果更好。

      為了驗證理論分析的正確性,團隊設計了一系列控制實驗。他們在人工構造的異質二次函數上測試了Magma,這些函數具有與變壓器模型相似的曲率結構。實驗結果完美驗證了理論預測:在同質曲率的情況下,Magma與傳統方法性能相當;但在異質曲率(類似真實變壓器的情況)下,Magma表現出明顯優勢。

      另一個重要發現是關于密集動量更新的必要性。與某些追求內存效率的稀疏優化方法不同,Magma堅持對動量狀態進行密集更新,即使參數更新被跳過。研究團隊發現,這種設計選擇至關重要——它確保了動量估計的穩定性和準確性,為后續的對齊判斷提供了可靠的基礎。

      **五、實用性分析:從實驗室到生產環境**

      Magma的設計哲學體現了一種"實用至上"的理念。與許多學術研究中的方法相比,Magma特別注重工程實現的簡潔性和兼容性。

      首先,Magma的實現非常簡單,核心代碼只需要幾行就能完成。它可以作為一個通用的包裝器(wrapper)應用于任何現有的優化器,包括Adam、AdamW、RMSProp等。這種設計使得研究者和工程師可以在不改變現有訓練流水線的情況下,輕松地嘗試這種新方法。

      從計算開銷的角度來看,Magma的額外成本幾乎可以忽略不計。它只需要計算余弦相似度和維護一個對齊分數的指數移動平均,這些操作的計算復雜度遠低于梯度計算本身。在大型模型訓練中,梯度計算通常占據了總計算時間的絕大部分,因此Magma的開銷在總體訓練成本中的占比微乎其微。

      內存使用方面,Magma也表現出色。它不需要存儲額外的參數狀態或歷史信息,唯一的額外內存開銷是每個參數塊的對齊分數,這個開銷相對于模型參數本身來說非常小。在當前內存成為訓練瓶頸的環境下,這種低開銷的設計顯得尤為珍貴。

      更重要的是,Magma展現出了很強的魯棒性。研究團隊發現,算法對超參數的選擇相對不敏感。溫度參數τ在一個相當寬的范圍內(0.5到4.0)都能取得良好效果,而采樣率p=0.5在各種設置下都是一個穩定的選擇。這種魯棒性大大降低了超參數調優的成本,使得普通用戶也能輕松使用這種方法。

      在學習率敏感性分析中,Magma還展現出了另一個重要優勢:它顯著擴大了穩定學習率的范圍。傳統優化器往往對學習率的選擇非常敏感,稍有不慎就可能導致訓練不穩定甚至發散。而Magma的幾何正則化效應相當于為優化過程增加了一層"安全網",使得即使在較大的學習率下訓練也能保持穩定。這個特性對于大規模訓練特別有價值,因為更大的學習率通常意味著更快的收斂速度。

      **六、技術細節的深入探討**

      為了幫助讀者更全面地理解Magma的工作機制,我們需要深入一些關鍵的技術細節。雖然這些細節可能顯得復雜,但它們是理解算法精髓的關鍵。

      遮蔽粒度的選擇是一個重要的設計決策。研究團隊測試了從單個參數到整個參數塊的不同遮蔽粒度,發現塊級遮蔽在效果和效率之間達到了最佳平衡。元素級遮蔽雖然在某些情況下效果略好,但計算開銷顯著增加;而太粗粒度的遮蔽則可能損失重要的結構信息。

      對齊分數的計算和更新策略也經過了精心設計。使用余弦相似度而不是簡單的點積,是因為余弦相似度具有尺度不變性,能夠更好地處理不同參數塊之間梯度幅度的差異。指數移動平均的引入則是為了平滑對齊分數的波動,避免因為單次計算的偶然誤差而做出錯誤的遮蔽決策。

      溫度參數τ的作用類似于sigmoid函數中的"銳化程度"控制器。較小的τ會使得對齊決策更加激進,只有高度對齊的更新才會被保留;較大的τ則使得決策更加保守,大部分更新都會被保留。研究團隊發現τ=2.0是一個很好的折中選擇,既能有效過濾噪聲,又不會過度抑制有用的更新。

      遮蔽策略的偏差問題是另一個需要仔細處理的技術細節。雖然隨機遮蔽保持了更新的無偏性(數學期望不變),但Magma中的對齊加權會引入一定的偏差。研究團隊發現,這種偏差實際上是有益的,它相當于一種隱含的正則化,有助于提升泛化性能。不過,他們也嘗試了一些無偏的替代方案,但發現效果反而不如當前的有偏設計。

      **七、與現有方法的比較分析**

      要充分理解Magma的價值,我們需要將其與現有的優化方法進行細致的比較。在當前的優化器生態中,每種方法都有其獨特的優勢和適用場景。

      與經典的Adam系列優化器相比,Magma的最大優勢在于隱含的幾何正則化。Adam雖然通過自適應學習率很好地處理了不同參數的更新幅度問題,但它缺乏對優化軌跡幾何形狀的考慮。Magma通過遮蔽機制巧妙地引入了曲率信息,在不增加計算成本的情況下獲得了類似二階方法的正則化效果。

      與最新的Muon優化器相比,兩者的設計哲學有所不同。Muon專注于精確的預條件矩陣設計,通過更精密的曲率估計來改善優化效果。而Magma則采用了一種更加簡潔的"間接"方法,通過隨機遮蔽來隱含地利用曲率信息。有趣的是,實驗結果顯示這兩種方法可以很好地結合,Muon+Magma的組合在多個測試中都取得了最佳性能。

      與SAM(Sharpness-Aware Minimization)等顯式平坦度優化方法相比,Magma的計算效率優勢明顯。SAM需要進行額外的前向和后向傳播來估計平坦度,這會顯著增加計算成本。而Magma通過巧妙的隨機機制實現了類似的平坦度偏好,但計算開銷幾乎為零。

      謹慎優化器(Cautious Optimizer)是另一個值得比較的方法,它同樣利用動量-梯度對齊來調節更新。但謹慎優化器采用的是確定性的遮蔽策略,缺乏隨機遮蔽帶來的幾何正則化效應。實驗對比顯示,Magma的性能明顯優于謹慎優化器,證明了隨機性在這種設計中的重要作用。

      **八、理論貢獻的深度解析**

      從理論角度來看,這項研究的貢獻不僅僅是提出了一個有效的算法,更重要的是它揭示了隨機性在優化中的新作用機制。傳統觀點認為,隨機性主要用于探索搜索空間或估計梯度,而這項研究發現隨機性還可以作為一種幾何正則化的工具。

      研究團隊通過嚴格的數學分析建立了隨機遮蔽與幾何正則化之間的理論聯系。他們證明,在適當的假設條件下,隨機遮蔽等價于在目標函數中添加一個曲率加權的正則化項。這個理論結果不僅解釋了Magma為什么有效,也為設計類似的隨機正則化方法提供了理論指導。

      收斂性分析是另一個重要的理論貢獻。研究團隊證明,在標準的收斂性假設下,Magma能夠達到與傳統方法相同的收斂保證,同時還能享受更低的有效噪聲水平。這個結果看似矛盾(跳過更新怎么可能不影響收斂?),但實際上反映了一個深刻的洞察:在噪聲環境中,"少而精"的更新可能比"多而雜"的更新更有效。

      塊結構分析揭示了為什么Magma在變壓器架構上特別有效。變壓器的Hessian矩陣往往呈現強塊對角結構,這意味著不同參數塊之間的相互作用相對較弱,主要的優化挑戰集中在各個塊的內部。Magma的塊級遮蔽策略正好契合了這種結構特性,能夠針對性地處理每個塊內的優化問題。

      **九、局限性與未來發展方向**

      雖然Magma取得了令人印象深刻的結果,但研究團隊也誠實地指出了其局限性和潛在的改進空間。

      首先是有偏性問題。雖然當前的有偏設計在實踐中效果很好,但從理論完備性的角度來看,開發無偏的版本仍然是一個有價值的研究方向。研究團隊嘗試了一些無偏的替代方案,但目前還沒有找到既保持無偏性又維持性能優勢的設計。

      架構適用性是另一個需要進一步探索的問題。雖然Magma在變壓器架構上表現出色,但在其他架構(如卷積神經網絡)上的效果還有待驗證。初步的實驗顯示,在ResNet等架構上,Magma的優勢并不明顯,這可能與這些架構的Hessian結構特性有關。

      超參數自適應是一個潛在的改進方向。雖然當前的設計對超參數相對不敏感,但如果能夠根據訓練過程的動態特性自適應地調整溫度參數和采樣率,可能會獲得更好的效果。這需要更深入地理解不同訓練階段的優化特性。

      多GPU分布式訓練的適配也是一個實際的工程挑戰。在大規模分布式訓練中,不同GPU之間的梯度同步和遮蔽策略的協調需要仔細設計,以確保方法的有效性不會因為分布式環境而降低。

      **十、實踐指導與使用建議**

      對于希望在實際項目中嘗試Magma的讀者,研究團隊提供了一系列實用的建議和最佳實踐。

      首先是超參數設置的建議。溫度參數τ=2.0是一個穩定的起點,適用于大多數場景。采樣率p=0.5在各種模型規模下都表現良好。對于動量的平滑系數,0.9是一個經驗驗證的良好選擇,它在響應性和穩定性之間取得了很好的平衡。

      模型規模的考慮也很重要。實驗結果顯示,Magma的優勢隨著模型規模的增大而更加顯著。對于較小的模型(如幾百萬參數),傳統優化器可能已經足夠;但對于大型模型(如十億參數以上),Magma的收益會更加明顯。

      訓練階段的策略調整是另一個值得注意的方面。在訓練的早期階段,可以使用稍微保守的設置(較大的τ值)來確保穩定性;在訓練的后期,可以適當降低τ值來增強正則化效應。這種動態調整策略在一些初步實驗中顯示出了潛在的優勢。

      調試和監控方面,建議重點關注對齊分數的分布和變化趨勢。健康的訓練過程中,對齊分數應該相對穩定,沒有劇烈的波動。如果觀察到對齊分數持續偏低或波動劇烈,可能需要調整溫度參數或檢查梯度計算是否正確。

      說到底,這項研究為我們打開了一扇全新的窗戶,讓我們重新審視優化算法中"完美"與"實用"之間的平衡。Magma告訴我們,有時候最直接的方法不一定是最好的方法,巧妙的"偷懶"策略反而能夠帶來意想不到的收益。這種反直覺的發現不僅推進了優化理論的發展,也為實際的AI模型訓練提供了一個強有力的新工具。

      隨著大型語言模型規模的不斷增長和訓練成本的日益高昂,像Magma這樣既簡單又有效的優化方法顯得尤為珍貴。它不需要復雜的硬件或額外的計算資源,就能顯著提升訓練效果,這對于推動AI技術的普及和發展具有重要意義。

      更深層次地說,這項研究體現了科學研究中"簡單即美"的哲學。最優雅的解決方案往往不是最復雜的,而是能夠用最簡潔的方式解決根本問題的方案。Magma就是這樣一個例子,它用一個看似簡單的隨機遮蔽機制,巧妙地解決了深度學習優化中的多個難題。

      對于AI領域的研究者和工程師來說,Magma提供了一個新的思路:不要總是追求更復雜的算法,有時候回到基礎,從新的角度重新思考問題,可能會發現更加優雅的解決方案。這種思維方式的轉變,可能會催生更多類似的創新成果。

      最后,這項研究也提醒我們,科學發現往往來自于對常識的質疑和挑戰。當所有人都認為密集更新是最優選擇時,這個研究團隊敢于嘗試"偷懶"的策略,最終發現了新的優化原理。這種勇于挑戰傳統觀念的精神,正是推動科學進步的重要動力。

      Q&A

      Q1:Magma優化算法的核心工作原理是什么?

      A:Magma是一種新的AI訓練優化方法,它的核心思想是在訓練過程中隨機跳過一半的參數更新。更智能的是,它會根據當前梯度與歷史動量的一致性來決定是否更新——當兩者方向一致時就更新,方向沖突時就跳過。這種"偷懶"策略實際上起到了幾何正則化的作用,讓AI訓練過程更穩定,效果更好。

      Q2:為什么跳過參數更新反而能提升AI模型的訓練效果?

      A:這是因為并非所有的梯度信息都是有益的,很多梯度包含噪聲干擾。隨機跳過更新相當于過濾掉了噪聲,讓模型避開優化過程中的"陡峭懸崖",選擇更平緩、更穩定的路徑。從數學角度看,這種遮蔽機制隱含地引入了曲率依賴的正則化效應,自動懲罰那些指向不穩定方向的參數變化。

      Q3:Magma算法在實際使用中有什么優勢和限制?

      A:Magma的主要優勢是實現簡單、計算開銷幾乎為零、內存需求極低,可以作為插件包裝任何現有優化器。在10億參數模型上相比Adam能降低19%的困惑度。但它主要在變壓器架構上效果顯著,在CNN等其他架構上優勢不明顯。目前的設計雖然有輕微偏差,但實踐效果很好,適合大規模語言模型訓練。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      近40國聯手封殺:俄海外雇傭兵招募徹底遇阻,36個友好國赫然在列

      近40國聯手封殺:俄海外雇傭兵招募徹底遇阻,36個友好國赫然在列

      老馬拉車莫少裝
      2026-02-24 22:46:14
      你見過哪些悶聲發大財的人?網友:干這個買三套房子,兩個門面

      你見過哪些悶聲發大財的人?網友:干這個買三套房子,兩個門面

      夜深愛雜談
      2026-02-01 18:57:04
      美荷兩國曾同時發聲,對中國獨立研發的光刻機技術給予了強烈批評

      美荷兩國曾同時發聲,對中國獨立研發的光刻機技術給予了強烈批評

      來科點譜
      2026-02-27 07:32:59
      春節后,這4種蔬菜不要隨便買!菜販子:我從來不吃,顧客搶著買

      春節后,這4種蔬菜不要隨便買!菜販子:我從來不吃,顧客搶著買

      阿龍美食記
      2026-02-26 10:37:19
      三名新任省委常委新職明確

      三名新任省委常委新職明確

      上觀新聞
      2026-02-27 14:46:22
      寒假開學不到90天就放暑假了!全國多地迎來近10年最短學期

      寒假開學不到90天就放暑假了!全國多地迎來近10年最短學期

      閃電新聞
      2026-02-27 21:47:59
      國家稅務總局紅河州稅務局黨委書記、局長、督辦劉毅被查

      國家稅務總局紅河州稅務局黨委書記、局長、督辦劉毅被查

      瀟湘晨報
      2026-02-26 17:19:31
      美伊談判基本告吹、攻擊隨時可能開始;另,巴基斯坦或攻入阿富汗

      美伊談判基本告吹、攻擊隨時可能開始;另,巴基斯坦或攻入阿富汗

      邵旭峰域
      2026-02-27 10:54:56
      86歲暢銷書作家楊本芬就“抄襲”道歉!曾獲谷雨文學獎,“出圈”代表作被曝與王朔、余華等人作品高度相似

      86歲暢銷書作家楊本芬就“抄襲”道歉!曾獲谷雨文學獎,“出圈”代表作被曝與王朔、余華等人作品高度相似

      都市快報橙柿互動
      2026-02-27 11:37:59
      寧抓國際友人,不抓莫斯科少爺:俄羅斯1.4億人中有兩千萬不能碰

      寧抓國際友人,不抓莫斯科少爺:俄羅斯1.4億人中有兩千萬不能碰

      黃娜老師
      2026-02-27 03:15:43
      教育部發布會答封面新聞:北京市破除唯分數論導向,減輕學生應試負擔和焦慮

      教育部發布會答封面新聞:北京市破除唯分數論導向,減輕學生應試負擔和焦慮

      封面新聞
      2026-02-27 17:49:29
      中領館提醒: 18-65歲在俄長期居留男性 須同意在俄軍事單位等至少服役1年

      中領館提醒: 18-65歲在俄長期居留男性 須同意在俄軍事單位等至少服役1年

      閃電新聞
      2026-02-26 12:46:48
      巴拿馬總統稱巴接管長和運營港口后中國不會反制,外交部回應

      巴拿馬總統稱巴接管長和運營港口后中國不會反制,外交部回應

      澎湃新聞
      2026-02-27 15:36:35
      WTT新加坡大滿貫:雨果張本智和接連爆冷出局,王曼昱今再戰張本美和

      WTT新加坡大滿貫:雨果張本智和接連爆冷出局,王曼昱今再戰張本美和

      上觀新聞
      2026-02-28 04:47:08
      上海是個垃圾桶,全國的垃圾都來上海

      上海是個垃圾桶,全國的垃圾都來上海

      上海云河
      2026-02-26 22:23:23
      你家里有鐵皮茶葉盒嗎?趕緊回家找出來,作用太厲害花錢都難買!

      你家里有鐵皮茶葉盒嗎?趕緊回家找出來,作用太厲害花錢都難買!

      妙招酷
      2026-02-26 23:48:36
      杭州一地發布放假通知:連休10天!浙江各地時間表也排定

      杭州一地發布放假通知:連休10天!浙江各地時間表也排定

      都市快報橙柿互動
      2026-02-27 15:56:56
      為何郭士強挑戰違體仍領T?日本媒體公布證據,被指吹T是否冤冤?

      為何郭士強挑戰違體仍領T?日本媒體公布證據,被指吹T是否冤冤?

      一盅情懷
      2026-02-27 18:28:36
      BBA集體 “大跳水”!奧迪跌破10萬,寶馬降27萬...網友:感謝新能源!

      BBA集體 “大跳水”!奧迪跌破10萬,寶馬降27萬...網友:感謝新能源!

      極果酷玩
      2026-02-26 16:49:51
      谷歌生圖新王Nano Banana 2深夜突襲!性能屠榜速度飛升,價格腰斬【附實測】

      谷歌生圖新王Nano Banana 2深夜突襲!性能屠榜速度飛升,價格腰斬【附實測】

      智東西
      2026-02-27 04:19:56
      2026-02-28 06:12:49
      至頂AI實驗室 incentive-icons
      至頂AI實驗室
      一個專注于探索生成式AI前沿技術及其應用的實驗室。
      1958文章數 162關注度
      往期回顧 全部

      科技要聞

      狂攬1100億美元!OpenAI再創融資神話

      頭條要聞

      特朗普警告伊朗:“有時候不得不打”

      頭條要聞

      特朗普警告伊朗:“有時候不得不打”

      體育要聞

      一場必須要贏的比賽,男籃何止擊敗了裁判

      娛樂要聞

      郭晶晶霍啟剛現身香港藝術節盡顯恩愛

      財經要聞

      沈明高提共富建議 百姓持科技股國家兜底

      汽車要聞

      嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

      態度原創

      手機
      數碼
      親子
      藝術
      游戲

      手機要聞

      榮耀600系列再次被確認:9000mAh+兩億像素,處理器有懸念!

      數碼要聞

      Omdia:時隔5年,小米去年再度回歸可穿戴設備出貨榜首

      親子要聞

      1歲娃心臟有個大洞,英國醫生說沒救了!結果網友眾籌150萬,硬給救活了!

      藝術要聞

      王個簃『清供圖』

      Oi朋友!你聽說過大只切的故事嗎?

      無障礙瀏覽 進入關懷版