<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      揭秘GLM-5技術(shù)底牌:「異步強(qiáng)化學(xué)習(xí)框架Slime」成終極殺招

      0
      分享至



      編輯|杜偉、陳陳

      一邊放出新一代旗艦基座模型 GLM-5 技術(shù)報(bào)告,展現(xiàn)其從底層架構(gòu)到異步強(qiáng)化學(xué)習(xí)基準(zhǔn)設(shè)施的深層創(chuàng)新硬實(shí)力;一邊馬年港股首個(gè)交易日收盤(pán)暴漲近 43%,市值突破 3200 億港元。這一波,智譜屬實(shí)「兩開(kāi)花」了。

      到今天,對(duì)于打工人來(lái)說(shuō),這個(gè)「AI 味」?jié)夂竦鸟R年春節(jié)即將迎來(lái)尾聲!

      過(guò)去一周多的時(shí)間,機(jī)器人無(wú)疑是頂流中的頂流,「機(jī)器人全面入侵春晚」的詞條更是一度占據(jù)了各大社交平臺(tái)的熱搜榜首。與此同時(shí),作為當(dāng)前主流機(jī)器人「大腦」的 AI 大模型,其范式與技術(shù)創(chuàng)新同樣值得我們復(fù)盤(pán)。

      這個(gè)春節(jié),DeepSeek V4「鴿了」,但以字節(jié) Seedance、智譜為代表的大廠(chǎng)及 AI 明星獨(dú)角獸相繼發(fā)布模型,同樣是在技術(shù)路徑上的一次「強(qiáng)勢(shì)亮劍」。

      其中,憑借新一代旗艦基座大模型 GLM-5 引爆全球開(kāi)發(fā)者社區(qū)的智譜,在幾天前將該模型完整的技術(shù)報(bào)告放了出來(lái)。



      我們先來(lái)回顧一下 GLM-5 的核心亮點(diǎn):

      它面向 Agentic Engineering 打造,憑借更強(qiáng)的代碼能力、更長(zhǎng)的 200K 上下文、更好的 Agent 工具調(diào)用能力,尤其擅長(zhǎng)處理復(fù)雜系統(tǒng)工程與長(zhǎng)程 Agent 任務(wù),準(zhǔn)確率攀升明顯。

      在 Coding 與 Agent 任務(wù)上,GLM-5 在 SWE-bench、Terminal-Bench、BrowseComp、MCP-Atlas 等多個(gè)主流基準(zhǔn)測(cè)試中取得開(kāi)源 SOTA 級(jí)表現(xiàn)。這使得 GLM-5 成為構(gòu)建通用 Agent 助手的理想基座選擇,并推動(dòng) Agent 從「跑通 Demo」的玩具階段跨越到「解決現(xiàn)實(shí)世界復(fù)雜工程問(wèn)題」的生產(chǎn)力臨界點(diǎn)。



      隨著技術(shù)報(bào)告的釋出,我們得以揭開(kāi)其強(qiáng)悍性能背后的技術(shù)秘訣。總結(jié)來(lái)看,GLM-5 的核心創(chuàng)新點(diǎn)可以歸納為三點(diǎn):

      首先,GLM-5 在底層架構(gòu)層面采用DSA(DeepSeek Sparse Attention),在「長(zhǎng)文本推理能力」與「訓(xùn)推成本」之間取得絕佳平衡。

      其次,GLM-5 通過(guò)異步強(qiáng)化學(xué)習(xí)基礎(chǔ)設(shè)施 —— Slime 框架,將「生成過(guò)程」與「訓(xùn)練過(guò)程」解耦,顯著提升后訓(xùn)練階段的效率。

      最后,Agent 強(qiáng)化學(xué)習(xí)算法是 GLM-5 能夠更高效地從復(fù)雜、長(zhǎng)時(shí)序交互中學(xué)習(xí)的關(guān)鍵。

      針對(duì) GLM-5 的一系列創(chuàng)新,X 平臺(tái)上一些大 V 給出了極高評(píng)價(jià),「在處理端到端的軟件工程挑戰(zhàn)時(shí),GLM-5 顯著超越現(xiàn)有基線(xiàn),標(biāo)志著模型能力從『片段式響應(yīng)』進(jìn)化到『系統(tǒng)級(jí)交付』。」



      圖源:X@omarsar0

      在大模型的發(fā)展歷程中,很少有能力是憑空產(chǎn)生的。無(wú)論是架構(gòu)設(shè)計(jì)、訓(xùn)練范式,還是數(shù)據(jù)處理與優(yōu)化技巧,幾乎所有領(lǐng)先模型都建立在既有研究成果與工程實(shí)踐的基礎(chǔ)之上。

      從 Transformer 的提出到注意力機(jī)制的演進(jìn),再到強(qiáng)化學(xué)習(xí)與知識(shí)遷移方法的成熟,每一次突破都來(lái)自持續(xù)的迭代與吸收。

      但在仔細(xì)研讀 GLM-5 的技術(shù)報(bào)告之后,我們發(fā)現(xiàn)了智譜獨(dú)特的技術(shù)品味。



      • 技術(shù)報(bào)告原文鏈接:https://arxiv.org/pdf/2602.15763
      • GitHub 開(kāi)源地址:https://github.com/zai-org/GLM-5

      DSA:降低訓(xùn)練與推理成本

      DSA(DeepSeek Sparse Attention)是 DeepSeek 提出的一種高效注意力機(jī)制。要理解它解決了什么問(wèn)題,我們先要知道注意力機(jī)制是干什么的:模型在理解每一個(gè)詞時(shí),需要參考上下文中其他所有詞,句子越長(zhǎng),需要參考的詞越多,計(jì)算量呈平方級(jí)增長(zhǎng)。對(duì)于動(dòng)輒十萬(wàn)詞的長(zhǎng)文本,這個(gè)開(kāi)銷(xiāo)是災(zāi)難性的。

      DSA 的核心思路是:不是每個(gè)詞都同等重要,大多數(shù)詞其實(shí)可以忽略。它通過(guò)動(dòng)態(tài)打分,只挑出真正相關(guān)的少數(shù) token 參與計(jì)算。實(shí)驗(yàn)證明,長(zhǎng)文本中約 90% 的注意力計(jì)算是冗余的,DSA 把這部分直接省掉,在不犧牲理解能力的前提下,將長(zhǎng)序列的計(jì)算量壓縮了 1.5 到 2 倍。

      得益于 DSA,GLM-5 得以將模型參數(shù)規(guī)模擴(kuò)展至 744B(40B 激活參數(shù)),訓(xùn)練 token 總量提升至 28.5T。但用 DSA 和把 DSA 真正用好之間,有一段不短的工程距離。

      當(dāng) DSA 與 MLA(Multi-Latent Attention)、自研 Muon 優(yōu)化器等既有組件疊加時(shí),團(tuán)隊(duì)發(fā)現(xiàn)模型在多個(gè)基準(zhǔn)上出現(xiàn)性能退化。

      為此,GLM-5 提出Muon Split 機(jī)制:將矩陣拆分為不同頭的更小矩陣,并對(duì)這些獨(dú)立矩陣應(yīng)用矩陣正交化,使得不同注意力頭的投影權(quán)重能夠以不同尺度更新。

      另外,針對(duì) MLA 解碼計(jì)算成本高難題,GLM 團(tuán)隊(duì)提出了MLA-256 變體:把 head dimension 從 192 提到 256,同時(shí)把注意力頭數(shù)減少 1/3,使訓(xùn)練計(jì)算量和參數(shù)量保持不變,但解碼計(jì)算量顯著下降。

      為進(jìn)一步提升基礎(chǔ)模型性能,智譜還提出在訓(xùn)練階段共享 3 層 MTP 的參數(shù)。這樣既保持了草稿模型與 DeepSeek-V3 相同的內(nèi)存開(kāi)銷(xiāo),又提升了 token 的接受率。

      在當(dāng)前大模型競(jìng)爭(zhēng)格局中,參數(shù)規(guī)模已不再是唯一的護(hù)城河。真正的壁壘在于如何在算力預(yù)算、長(zhǎng)上下文忠實(shí)度與工程穩(wěn)定性之間取得平衡。

      GLM-5 在 DSA 體系上的實(shí)踐提供了一個(gè)清晰的答案:不再盲目追求無(wú)限堆砌算力,而是通過(guò)重構(gòu)計(jì)算路徑,讓模型在同等資源下完成更高效的工作。 如果說(shuō)大模型的前半場(chǎng)是在比拼「誰(shuí)做得更大」,那么 GLM-5 則標(biāo)志著下半場(chǎng)的開(kāi)啟,在長(zhǎng)程推理與 Agent 時(shí)代,誰(shuí)能把計(jì)算結(jié)構(gòu)設(shè)計(jì)得更「聰明」,誰(shuí)才能在端到端的軟件工程等復(fù)雜任務(wù)中勝出。

      異步 RL 基礎(chǔ)設(shè)施:Slime 框架的工程創(chuàng)新

      在從「文本生成」向「自主代理(Agent)」進(jìn)化的過(guò)程中,傳統(tǒng)同步強(qiáng)化學(xué)習(xí)的低效與長(zhǎng)程推理的昂貴成本成為了最大的阻礙。

      傳統(tǒng)同步 RL 的流程是:生成一批軌跡→等所有軌跡完成→送入訓(xùn)練→更新權(quán)重→再生成下一批。但問(wèn)題在于,智能體任務(wù)的軌跡長(zhǎng)度極度不均勻,修一個(gè)簡(jiǎn)單 bug 可能 3 步,實(shí)現(xiàn)一個(gè)復(fù)雜功能可能需要 50 步以上。同步模式下整批訓(xùn)練的速度由最慢的那條軌跡決定,GPU 在等待中大量空轉(zhuǎn),造成資源浪費(fèi)。

      GLM-5 的核心解法是將推理引擎與訓(xùn)練引擎部署在不同 GPU 設(shè)備上,完全異步并行運(yùn)行。 推理引擎持續(xù)生成軌跡,積累到預(yù)定閾值后批量推送給訓(xùn)練引擎;訓(xùn)練引擎持續(xù)消費(fèi)數(shù)據(jù)、更新參數(shù),每完成 K 次梯度更新后將新權(quán)重同步回推理引擎。兩條流水線(xiàn)互不阻塞,GPU 利用率大幅提升。



      但異步 RL 中有一個(gè)看似微小但后果嚴(yán)重的問(wèn)題:如果推理引擎輸出文本,訓(xùn)練端再重新 tokenize,哪怕是空白符處理、特殊 token 位置、截?cái)喾绞降募?xì)微差異,都可能導(dǎo)致 action 和 reward 之間的對(duì)應(yīng)位置出錯(cuò),這種錯(cuò)位會(huì)持續(xù)累積,最終破壞 RL 信號(hào)的準(zhǔn)確性。

      TITO Gateway的解法是直接截獲推理引擎產(chǎn)生的 token ID 序列和元數(shù)據(jù),繞過(guò)任何文本中轉(zhuǎn),確保訓(xùn)練端使用與采樣完全一致的 token 流。

      此外,異步訓(xùn)練中,一條軌跡的生成過(guò)程中模型可能已經(jīng)更新了多次,精確追蹤行為策略概率幾乎不可行,否則需要維護(hù)大量歷史 checkpoint,存儲(chǔ)和通信開(kāi)銷(xiāo)極高。

      GLM 團(tuán)隊(duì)提出直接雙側(cè)重要性采樣:直接復(fù)用 rollout 時(shí)記錄的 log 概率作為行為策略代理。并采用雙側(cè) token 級(jí)掩碼:重要性采樣比落在區(qū)間范圍內(nèi)的 token 正常計(jì)算梯度,超出范圍的 token 梯度直接置零。

      這些設(shè)計(jì)聽(tīng)上去像是工程層面的補(bǔ)丁,但它們解決的,其實(shí)是一個(gè)更根本的問(wèn)題:如何讓大規(guī)模 Agent 強(qiáng)化學(xué)習(xí)在現(xiàn)實(shí)算力條件下真正跑得起來(lái)、穩(wěn)得住。如果說(shuō)同步 RL 更適合短軌跡、規(guī)則明確的任務(wù),那么 GLM-5 這一套異步機(jī)制,則是為長(zhǎng)程軟件工程、復(fù)雜工具調(diào)用、多輪交互決策場(chǎng)景量身打造的。它讓模型不再被訓(xùn)練框架拖慢節(jié)奏,而是能夠在持續(xù)交互中不斷生成、評(píng)估、更新,形成近似在線(xiàn)學(xué)習(xí)的循環(huán)。

      鍛造工業(yè)級(jí)長(zhǎng)程智能體,非一役之功

      解決了訓(xùn)推效率與工程落地難題,接下來(lái)就要進(jìn)入長(zhǎng)程軟件工程的實(shí)戰(zhàn)環(huán)節(jié)了。

      GLM 團(tuán)隊(duì)發(fā)現(xiàn),在將底層 DSA 架構(gòu)與大規(guī)模 RL 訓(xùn)練結(jié)合時(shí),短短數(shù)步之內(nèi)就會(huì)出現(xiàn)崩潰、損失異常以及模型能力快速退化等情況。在一番摸查之后,根源定位到了 DSA 內(nèi)部使用的非確定性 CUDA top-k 算子,其輸出的不穩(wěn)定性干擾了 RL 的梯度更新。

      因此,在將該算子替換為確定性的 torch.topk 之后,雖然犧牲了微小的運(yùn)行速度,但可以讓訓(xùn)練立刻恢復(fù)穩(wěn)定并帶來(lái)顯著的性能收益。同時(shí),為了避免 RL 階段的無(wú)效學(xué)習(xí)干擾,還對(duì)索引器參數(shù)(Indexer)進(jìn)行了凍結(jié)。

      不僅如此,GLM 團(tuán)隊(duì)還通過(guò)以下一系列創(chuàng)新性解法,全方位克服 RL 在復(fù)雜智能體任務(wù)中的數(shù)據(jù)短缺、審美、遺忘等其他難題。

      首先,軟件工程任務(wù)的 RL 訓(xùn)練最缺的是「考場(chǎng)」,現(xiàn)有數(shù)據(jù)集不僅規(guī)模小,還極易受到數(shù)據(jù)污染。

      GLM 團(tuán)隊(duì)基于 RepoLaunch 框架,構(gòu)建了10000 + 可驗(yàn)證的 SWE 環(huán)境,覆蓋了 Python、Java、Go 等 9 種主流編程語(yǔ)言。并且,每個(gè)環(huán)境支持從依賴(lài)安裝到測(cè)試解析的全流程自動(dòng)化。這意味著,模型對(duì)代碼的修改是否有效,全憑單元測(cè)試說(shuō)了算,不再依賴(lài)主觀且低效的人工打分,從而實(shí)現(xiàn) RL 信號(hào)的真實(shí)可靠。

      其次,智能體不僅要會(huì)寫(xiě)代碼,還要懂設(shè)計(jì)。GLM-5 引入了以 HTML 幻燈片為載體的三級(jí)獎(jiǎng)勵(lì)體系,在結(jié)構(gòu)化文檔生成的「審美」方面形成了自己的風(fēng)格:

      • Level-1(靜態(tài)規(guī)則):檢查布局、間距、字體等基礎(chǔ)屬性,并利用 AI 識(shí)別幻覺(jué)與重復(fù)圖片。
      • Level-2(運(yùn)行布局):通過(guò)分布式渲染,抓取渲染后 DOM 節(jié)點(diǎn)的寬高、邊界框等真實(shí)幾何指標(biāo),搞定靜態(tài)代碼看不出的排版沖突。
      • Level-3(視覺(jué)感知):直接從視覺(jué)層面檢測(cè)異常空白或構(gòu)圖失衡,確保看起來(lái)舒服。

      一套流程走下來(lái),效果立竿見(jiàn)影,GLM 團(tuán)隊(duì)識(shí)別并修復(fù)了兩類(lèi)獎(jiǎng)勵(lì)破解行為,將 16:9 合規(guī)率從 40% 提升至 92%。

      接下來(lái)要面對(duì)多階段 RL 訓(xùn)練中的災(zāi)難性遺忘問(wèn)題。GLM-5 的后訓(xùn)練依次分為推理 RL、智能體 RL、通用對(duì)齊 RL 等三個(gè)階段,遺忘問(wèn)題會(huì)導(dǎo)致后續(xù)階段覆蓋前序積累的能力。

      為此,GLM 團(tuán)隊(duì)引入了「跨階段蒸餾」,將當(dāng)前策略與各個(gè)前序階段的最優(yōu)教師模型進(jìn)行對(duì)數(shù)概率對(duì)比。這樣既可以讓模型掌握新能力,也會(huì)靠攏之前的最優(yōu)狀態(tài)。一種設(shè)計(jì)達(dá)成兩個(gè)目標(biāo):在克服遺忘的同時(shí)通過(guò)簡(jiǎn)化算法邏輯提升訓(xùn)練效率。

      最后還要為搜索智能體配上「長(zhǎng)短期記憶」。GLM 團(tuán)隊(duì)發(fā)現(xiàn),當(dāng)上下文超過(guò) 100K 時(shí),傳統(tǒng)的清空所有工具記錄的方案會(huì)造成浪費(fèi),而保留所有記錄又可能導(dǎo)致混亂。

      GLM 團(tuán)隊(duì)提出了分層上下文管理(HCM,Hierarchical Context Management)策略,在實(shí)踐中先試著折疊早期記錄,并保留最近 5 輪記憶。如果還是太大,則清空所有工具調(diào)用歷史,然后重置。結(jié)果顯示,這種分層組合方案讓 GLM-5 在 BrowseComp 任務(wù)上的準(zhǔn)確率從 55.3% 暴漲至 75.9%,一舉超越了現(xiàn)有已知的開(kāi)源上下文管理方案。

      可以看到,通過(guò)對(duì)長(zhǎng)程交互中每一個(gè)細(xì)節(jié)的極致掌控,包括底層算子、環(huán)境構(gòu)建以及如何讓模型長(zhǎng)記性,GLM 團(tuán)隊(duì)全給理順了。

      當(dāng)然,GLM-5 還全棧適配了國(guó)產(chǎn) GPU,包括華為昇騰、摩爾線(xiàn)程、海光、 寒武紀(jì)、昆侖芯、沐曦、燧原等七家主流國(guó)產(chǎn)芯片平臺(tái),進(jìn)一步拓寬算力生態(tài)。

      以上構(gòu)成了 GLM-5 技術(shù)底色的完整輪廓,它們不是調(diào)參的結(jié)果,不是重新包裝的已有工作,而是在真實(shí)工程實(shí)踐中遇到真實(shí)問(wèn)題、提出真實(shí)解法的過(guò)程。

      十天前,圖靈獎(jiǎng)得主、RL 大佬 Richard Sutton 以遠(yuǎn)程連線(xiàn)的方式,在加州大學(xué)洛杉磯分校(UCLA)的純粹與應(yīng)用數(shù)學(xué)研究所(IPAM)發(fā)表了名為《AI 的未來(lái)》(The Future of AI)的最新演講。



      圖源:https://www.youtube.com/watch?v=lieqoaBV6ww

      演講中,Sutton 表達(dá)了這樣一種觀點(diǎn):盡管當(dāng)下的 AI 仍受限于對(duì)人類(lèi)數(shù)據(jù)的學(xué)習(xí),但未來(lái)的 AI 將立足于從交互經(jīng)驗(yàn)中學(xué)習(xí)。這樣的范式能讓模型持續(xù)獲取新知識(shí),從而爆發(fā)出遠(yuǎn)超現(xiàn)狀的演進(jìn)潛力。

      這一觀點(diǎn)與 GLM-5 發(fā)力 Agentic Engineering 并推進(jìn)「系統(tǒng)級(jí)交付」的范式選擇不謀而合:讓 AI 脫離人類(lèi)預(yù)設(shè)的指令集,轉(zhuǎn)而在長(zhǎng)程真實(shí)或虛擬環(huán)境中通過(guò) RL 實(shí)現(xiàn)自我進(jìn)化。

      在長(zhǎng)程規(guī)劃與資源管理能力上,GLM-5 證明了其實(shí)力。如下圖左的 Vending-Bench 2(讓 AI 模擬自動(dòng)售貨機(jī)一整年)和圖右的 CC-Bench-V2(智譜 AI 官方內(nèi)部測(cè)試)基準(zhǔn)結(jié)果所示,GLM-5 的表現(xiàn)接近并在一些任務(wù)上能夠超越 Claude Opus 4.5。



      根據(jù) Artificial Analysis 最近的一項(xiàng)數(shù)據(jù)顯示,相較于 Anthropic 最強(qiáng)的 Claude Opus 4.6,作為開(kāi)源模型的 GLM-5 與其之間的智能差距已經(jīng)縮小到史無(wú)前例的程度。



      在開(kāi)源步步逼近閉源競(jìng)品的路上,GLM-5 交出了一份令業(yè)界驚嘆的答卷。

      而這僅僅是智譜在 Agentic Engineering 路徑上的首次出手,下一代 GLM 旗艦?zāi)P陀謱⑦M(jìn)化到何種程度,我們拭目以待。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      阿森納4-1熱刺完成雙殺,埃澤約克雷斯雙核建功,5分領(lǐng)跑仍有隱憂(yōu)

      阿森納4-1熱刺完成雙殺,埃澤約克雷斯雙核建功,5分領(lǐng)跑仍有隱憂(yōu)

      云兒評(píng)球
      2026-02-23 19:44:24
      戰(zhàn)犯黃維被捕后向陳賡吐露:你手下有個(gè)旅長(zhǎng),在我這里可以當(dāng)軍長(zhǎng)

      戰(zhàn)犯黃維被捕后向陳賡吐露:你手下有個(gè)旅長(zhǎng),在我這里可以當(dāng)軍長(zhǎng)

      大運(yùn)河時(shí)空
      2026-02-23 09:30:03
      20億大單,必須“先打錢(qián),再發(fā)貨”?比亞迪給印度車(chē)企上了一課

      20億大單,必須“先打錢(qián),再發(fā)貨”?比亞迪給印度車(chē)企上了一課

      毒sir財(cái)經(jīng)
      2026-02-23 17:40:32
      掘金為什么輸勇士?賽后約基奇毫不客氣說(shuō)出原因,說(shuō)得太實(shí)在

      掘金為什么輸勇士?賽后約基奇毫不客氣說(shuō)出原因,說(shuō)得太實(shí)在

      劉哥談體育
      2026-02-23 09:43:34
      血虧!曼聯(lián) 4 年前 900 萬(wàn)賤賣(mài)的天才,如今實(shí)力遠(yuǎn)超卡塞米羅

      血虧!曼聯(lián) 4 年前 900 萬(wàn)賤賣(mài)的天才,如今實(shí)力遠(yuǎn)超卡塞米羅

      瀾歸序
      2026-02-22 02:12:47
      高校改革!無(wú)職稱(chēng)教師,直升副教授

      高校改革!無(wú)職稱(chēng)教師,直升副教授

      麥可思研究
      2026-02-23 18:05:05
      老天吶,突然有點(diǎn)理解陳曉了

      老天吶,突然有點(diǎn)理解陳曉了

      牛鍋巴小釩
      2026-02-22 00:29:47
      王健林預(yù)言應(yīng)驗(yàn)!別急了賣(mài)房,2026年的房?jī)r(jià),要變天!

      王健林預(yù)言應(yīng)驗(yàn)!別急了賣(mài)房,2026年的房?jī)r(jià),要變天!

      貓叔東山再起
      2026-02-22 09:10:05
      90歲大爺哭訴:我有百萬(wàn)存款和兩套房,但唯一心愿卻想早點(diǎn)離開(kāi)

      90歲大爺哭訴:我有百萬(wàn)存款和兩套房,但唯一心愿卻想早點(diǎn)離開(kāi)

      烙任情感
      2026-02-22 11:18:12
      阿爾茨海默病者逐漸增多,醫(yī)生提醒:55歲后,盡量改掉6個(gè)壞習(xí)慣

      阿爾茨海默病者逐漸增多,醫(yī)生提醒:55歲后,盡量改掉6個(gè)壞習(xí)慣

      39健康網(wǎng)
      2026-02-17 18:31:37
      撒貝寧將第十次主持央視春晚,家庭變故煩心事多

      撒貝寧將第十次主持央視春晚,家庭變故煩心事多

      吃青菜長(zhǎng)高
      2026-02-06 21:23:14
      馬斯克牽手39歲女下屬,3年生4娃終被承認(rèn)!拿下首富的女人不簡(jiǎn)單

      馬斯克牽手39歲女下屬,3年生4娃終被承認(rèn)!拿下首富的女人不簡(jiǎn)單

      商務(wù)范
      2026-02-05 18:12:38
      “富養(yǎng)”谷愛(ài)凌、蘇翊鳴的真實(shí)成本:看他們的家庭才懂,父母是高人……

      “富養(yǎng)”谷愛(ài)凌、蘇翊鳴的真實(shí)成本:看他們的家庭才懂,父母是高人……

      閱讀第一
      2026-02-13 08:35:15
      湖南27歲媽媽輸液身亡,護(hù)士拔針不救,11萬(wàn)買(mǎi)斷一條命!

      湖南27歲媽媽輸液身亡,護(hù)士拔針不救,11萬(wàn)買(mǎi)斷一條命!

      六目先生
      2026-02-23 16:31:27
      著名專(zhuān)家預(yù)言:試管嬰兒壽命僅40年,那首例試管嬰兒如今怎樣了?

      著名專(zhuān)家預(yù)言:試管嬰兒壽命僅40年,那首例試管嬰兒如今怎樣了?

      云舟史策
      2026-02-20 19:17:08
      女生主動(dòng)起來(lái)有多黏人?網(wǎng)友:這些女的太開(kāi)放了

      女生主動(dòng)起來(lái)有多黏人?網(wǎng)友:這些女的太開(kāi)放了

      帶你感受人間冷暖
      2026-01-27 00:20:06
      上海街頭,車(chē)輛突然失控撞向人行道!一男子在一旁猛喝熱水,民警:不對(duì)勁……

      上海街頭,車(chē)輛突然失控撞向人行道!一男子在一旁猛喝熱水,民警:不對(duì)勁……

      上觀新聞
      2026-02-23 09:49:18
      1983年,黃永勝?gòu)浟糁H苦求一事,中央特批:滿(mǎn)足他

      1983年,黃永勝?gòu)浟糁H苦求一事,中央特批:滿(mǎn)足他

      寄史言志
      2026-01-14 16:36:19
      河南礦山開(kāi)工首日客戶(hù)排隊(duì)交錢(qián),100萬(wàn)現(xiàn)金放桌上,每個(gè)訂單都會(huì)給顧客400元紅包!此前“最?lèi)?ài)發(fā)錢(qián)老板”崔培軍發(fā)1.8億年終獎(jiǎng)全網(wǎng)爆火

      河南礦山開(kāi)工首日客戶(hù)排隊(duì)交錢(qián),100萬(wàn)現(xiàn)金放桌上,每個(gè)訂單都會(huì)給顧客400元紅包!此前“最?lèi)?ài)發(fā)錢(qián)老板”崔培軍發(fā)1.8億年終獎(jiǎng)全網(wǎng)爆火

      大象新聞
      2026-02-22 13:48:04
      袁世凱雖然爭(zhēng)議頗多,卻有一個(gè)聞名世界的孫子,為中國(guó)奮斗了一生

      袁世凱雖然爭(zhēng)議頗多,卻有一個(gè)聞名世界的孫子,為中國(guó)奮斗了一生

      云霄紀(jì)史觀
      2026-01-12 13:22:42
      2026-02-23 21:03:00
      機(jī)器之心Pro incentive-icons
      機(jī)器之心Pro
      專(zhuān)業(yè)的人工智能媒體
      12330文章數(shù) 142569關(guān)注度
      往期回顧 全部

      科技要聞

      智譜、MiniMax合計(jì)蒸發(fā)近千億市值,為何?

      頭條要聞

      鄭麗文接受外媒專(zhuān)訪(fǎng):若臺(tái)海爆發(fā)沖突臺(tái)灣將成最大輸家

      頭條要聞

      鄭麗文接受外媒專(zhuān)訪(fǎng):若臺(tái)海爆發(fā)沖突臺(tái)灣將成最大輸家

      體育要聞

      哈登版騎士首敗:雷霆的冠軍課

      娛樂(lè)要聞

      那藝娜賬號(hào)被禁止關(guān)注,視頻已清空!

      財(cái)經(jīng)要聞

      美國(guó)海關(guān)將停止征收被裁定違法的關(guān)稅

      汽車(chē)要聞

      續(xù)航1810km!smart精靈#6 EHD超級(jí)電混2026年上市

      態(tài)度原創(chuàng)

      本地
      健康
      教育
      手機(jī)
      公開(kāi)課

      本地新聞

      春花齊放2026:《駿馬奔騰迎新歲》

      轉(zhuǎn)頭就暈的耳石癥,能開(kāi)車(chē)上班嗎?

      教育要聞

      90%的父母教育順序都搞反了

      手機(jī)要聞

      小米最強(qiáng)旗艦走出國(guó)門(mén)!小米17 Ultra國(guó)際版偷跑:電池比國(guó)行版少了

      公開(kāi)課

      李玫瑾:為什么性格比能力更重要?

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版