<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      谷歌:“手撕”英偉達,翻身仗敘事靠譜嗎?

      0
      分享至

      Google的全棧AI邏輯已經演繹了一個多月,看上去圍繞OpenAI的循環借貸故事出現破綻,從而導致“突然”的AI敘事轉變。但Google鏈屬于厚積薄發,技術更迭是量變引起質變,而最關鍵的是業務定位發生了根本性的變化。

      借著Anthropic又下110億TPU訂單,Meta推進與Google底層語言開發合作之際,海豚君來梳理一下:

      1)TPU生態到底發生了什么關鍵變化?

      2)如何厘清Google與Anthropic、Broadcom之間的訂單關系?

      3)當下估值打入了多少TPU預期?


      一、直擊核心問題:TPU的積存訂單與增量收入確認

      1、TPU的技術替代“突然”爆發?

      如果不是在行業內,這可能是大家的第一個疑問。在市場大多數記憶還停留在TPU通用性不夠,Google主要用來內用而非對外商用時,會非常訝異為何到了TPU v7這一版本,突然開講TPU對的GPU替代邏輯。

      這并非市場的重大忽視,奇點形成的關鍵是 TPU在集團內部的戰略定位轉變——從“對內為主”轉為“對外直接商用”,促使在芯片設計理念上發生了根本性的變化。

      在這一輪AI LLM時代之前,TPU的設計理念都偏保守。與英偉達idia在設計上更偏重單片核心算力的持續升級,TPU在設計上更聚焦性價比,即以犧牲極致單片性能,而避免故障率走高導致的物理磨損加速、元件老化、散熱壓力等問題的出現,從而拉高了整體成本。

      當然這么設計的原因還在于,在TPU對內使用下對性能追求點與LLM也存在差異,尤其是在算力指標上。一方面內部的廣告推薦模型不需要這么高的算力吞吐,另一方面沒有商用壓力,自然也就沒有“炫技”的必要性。

      比如下圖比較了廣告推薦模型(Reco)和LLM大模型對硬件的性能不同需求,在Reco模型下,對算力吞吐、網絡延遲上的要求沒LLM那么高。


      但隨著LLM時代到來,算力要求大幅提高,集團對TPU的設計思路本身需要升級改變。這個時候順便對TPU開啟直接商用,還能在當下的千億算力市場分一杯羹,何樂而不為?于是我們看到,2024年中推出的TPU v5版本在單片算力上出現了顯著提升,并在隨后的v6、v7版本繼續大幅拉高。

      而在LLM另外需要的存儲性能——內存帶寬、內存容量上,TPU v7版本直接拉齊到了GB200的水平,但單卡性能與GB300以及英偉達的Rubin系列還有明顯差距。



      2、大廠客戶“突然”密集下訂單?

      9月被爆、10月正式官方披露的Anthropic百萬顆TPU訂單可以說是一石激起千層浪,TPU真正走到舞臺中央。依據專家調研信息,預計2026年TPU出貨量將達到300萬顆,在2025年的低基數上增幅達到66%。


      但前幾天博通的Q4業績發布,提到了Anthropic新下的一份110億TPU v7訂單,預計2026年底交付,按單價來算,那么也是對應40-50萬顆的TPU v7。因此如果能夠按計劃實現交付,那么2026年TPU出貨量將至少達到350萬顆數量級。

      下圖為Anthropic的兩次訂單情況,爆出在接觸合作的Meta、OpenAI等具體細節還未確認:


      不過,雖然紙面上的技術替代性實現了,但要真正獲得頭部大客戶的青睞還需要依賴三個關鍵因素,1)性價比;2)芯片封裝產能配給;3)開發生態,實際對應1)有效算力成本;2)臺積電的CoWoS產能;3)開發者生態,一如英偉達idia核心壁壘——CUDA生態。

      (1)以量取勝,不做鏟子商

      雖然TPU v7在單卡Raw Power(原始算力)上可能略遜于英偉達idia B200,顯著遜于B300、R100。但在萬卡集群的有效算力(MFU)上,Google憑借獨家的OCS(光路交換)互聯技術,能大幅緩解傳統GPU集群隨著規模擴大而損耗指數級上升的BUG。

      正如前文所說,單卡極致性能會導致整體硬件的故障率走高,產生磨損、老化、散熱等問題,算力使用效率反而一般,后續的維護會帶來更高的成本壓力。

      簡單而言,Anthropic看中的是性價比,即“1美元部署對應的算力”。如下圖所示,TPU v7單位算力價格(運行一顆芯片1小時,所需要的綜合成本,包含芯片和數據中心基建成本、電力成本、維護人力成本等)便宜了近44%,且其中一次性投入的硬件和基建成本(對應客戶的Capex,需要前置投入)占比在72.7%,也比GB系列的77%~79%略低時,TPU無疑會進入下游客戶算力方案選擇的最終“決賽圈”。



      (2)改變信披戰術,鎖訂單搶產能

      盡管臺積電和英偉達多年深度合作,且在過去一年多的算力軍備競賽上,雙方攜手獲得了產業鏈中絕大部分的利益,但這層關系并非絕對捆綁到無懈可擊,尤其是當市場開始質疑OpenAI的變現力,以及與英偉達之間循環貸款對訂單的增長持續性。

      從風險規避的角度,臺積電會更加注重客戶是否存在“有交付能力的在手訂單”,從而決定產能配給。

      因此Google對TPU的信息披露也對應著發生了變化。既然要與英偉達idia競爭,那么也就是需要和英偉達一樣,盡早公布新產品路線,以便成為客戶做未來算力規劃時的待選方案之一。通過提前鎖定訂單,從而能從臺積電處拿到產能。

      TPU v7之前,Google對TPU的信息披露會更加謹慎,畢竟被認定為只對內的“秘密武器”。比如,2015年TPU一代就已經落地并且被Google進行大規模的部署和使用,但直到2016年Google I/O大會才對外公布它的存在。

      隨后的2-6代,雖然披露略有放寬,一般是I/O大會發布PPT后一年內就實現了Cloud上線使用,也就是說在發布時就已經談好了產能規劃。

      但這次v7,為了搶到訂單,Google早早發布TPU v7產品細節(2025年4月發布),但彼時產能還未鎖定,直到8月盛傳Broadcom追加對CoWoS的產能(大概率是因為為TPU v7提前準備),隨后9月Anthropic才敲定與Google TPU的合作,涉及到TPU機架的直接銷售(10月底公開披露),而最近當Anthropic追加了110億訂單,Broadcom則再次與TSMC鎖定明年的產能。

      因此,從Broadcom向Anthropic(最早下訂單的頭部客戶)允諾的交付時點來看(2026年中和2026年底),Google對TPU v7的信息披露要相當于早于實際部署的1—2年的時間,明顯早于前幾代。

      (3)為何說英偉達的軟件生態優勢出現裂縫?

      但能讓動不動砸上百億支出的大廠們,敢于下TPU的訂單,光靠便宜肯定不夠,關鍵在于軟件生態的有效完善,這也是TPU走向大規模商用需要解決的關鍵問題。

      英偉達之所以壁壘深厚,硬件單卡性能只是表面,CUDA才是里子。CUDA是英偉達idia推出用來讓GPU理解C+、Python的底層算子庫,近20年行業的開發經驗積累,使得CUDA在AI開發領域幾乎不可跨越:前一代的工程師們基于CUDA寫好了工具模塊PyTorch,后一代的工程師們無需從0-1寫代碼,而是直接套用PyTorch工具來做進一步的開發。

      由此看來,要顛覆CUDA,最重要的是“工具庫”和“人才”。那么TPU是怎么解決的呢?

      a. 主動的定點優化:編譯器2.0+vLLM直接支持TPU

      對應CUDA,TPU的底層算子庫是Pallas。由于TPU發展晚一些,且之前一直對內,未對外商用,因此Pallas生態里面幾乎只有Google自己的工程師在補充算子。而TPU生態中與PyTorch工具庫對應的,則是JAX。由于手寫Pallas算子的過程太復雜,Google另外推出了XLA編譯器,來實現從JAX到底層指令集(TPU Runtime)的調用。


      但一己之力vs多人合力的天然弱勢,要讓Pallas/JAX去追趕CUDA/PyTorch的難度太大。軟件生態的缺陷成為TPU商業化的核心阻力之一,除非客戶本身具備JAX人才(這幾乎只有Google內部的人跳到甲方關鍵崗位,再身體力行的推行JAX才行)。

      因此Google推出了PyTorch/XLA編譯器,它能讓原本為GPU設計的PyTorch代碼,編譯并運行在TPU上。1.0版本還不太絲滑,但23年推出的2.0版本,優化了1.0版本的TPU啟動速度慢問題,不過還是會出現首次編譯時間長等問題。

      又一個轉折點在2024年下半年,Google 實現了vLLM對TPU的原生支持——2024年7月底披露,vLLM可以實現在TPU v5e和v6e上運行,隨后不斷完善。

      vLLM是目前 AI 推理(讓模型回答問題)領域滲透率最高的開源軟件庫,最早是為了解決英偉達idia顯卡碎片化問題而誕生,因此天然適配GPU。

      Google 為了讓vLLM實現對TPU的原生運行,與vLLM團隊深入合作,使用Pallas重寫了基于vLLM的核心算子,通過使用 JAX + Pallas,vLLM可以直接調用TPU的底層內存管理能力,避開了PyTorch/XLA 編譯器帶來的延遲和額外開銷。

      c. 被動的開發者滲透:“AI黃埔軍校”的人才戰術

      這一輪AI基建,上游廠商吃了產業鏈絕大多數利潤,但行業的繁榮最終來自下游的百花齊放。對于上游而言,捆綁客戶以獲得持續的需求是關鍵。英偉達idia采取的方式是股權投資,相當于“芯片折扣+風險投資收益”。

      做股權捆綁并沒有壁壘,都是送錢,Google完全可以復制操作。實際上,Google很早就對Anthropic進行了積極投資,投入30億持股比例達到14%(不含投票權)。目前Anthropic估值達到近2000億美元,且不論是否捆綁芯片合同,Google已經從這筆風投中獲得了不錯的收益。

      但還是那句話,單純股權捆綁(“送錢”)并不是獨家方案。CUDA的繁榮也在于生態強大,也就是開發者眾多。因此,這里面的關鍵因素還是“人才”。

      上文提到vLLM直接支持TPU,這對頭部客戶來說是明顯利好。畢竟這個路線繞開了編譯器,如果要實現絲滑運用,那么還要配備足夠懂JAX/XLA的TPU人才,對于頭部用戶,Google應該會專門配備技術支持團隊。

      但實際上還有“意外之喜”,作為AI老牌大廠的Google,這么多年同時也在對外“輸送”人才。因此,Anthropic的100萬TPU大單能夠促成,少不了“人”的推動——Anthropic內部有不少前DeepMind的TPU人才,因此在這次合作之前,內部就已經在TPU上訓練了Sonnet和Opus 4.5。

      因此從上述的“技術迭代+人才推動”兩個角度而言,TPU的軟件生態問題可以比預想的速度更快實現補漏。

      二、新一輪AI敘事下Google的價值

      全棧AI的敘事邏輯在資本已經演繹了兩個月,Google在此期間也上漲了近30%,成為2025年初絕對想不到的Mag 7明星。雖然近期Google也跟隨AI情緒轉冷而暫停了上漲趨勢,但不可否認,在當下Google的AI邏輯仍然是相對較順的。

      因此在這個“中場休息”時段,海豚君來扒扒賬:若2026年TPU也走到AI算力的聚光燈下,那么對Google的價值會有多少增量?近4萬億美金市值的Google,打入了多少TPU預期?

      1. Google版的算力是如何賺錢的?

      在今年Q2之前,Google主要通過GCP做算力租賃的服務,出租的算力有英偉達idia的GPU也有自己的TPU。但從Q2推出TPU v7開始,正式開啟TPU芯片直銷的大規模商用。

      不同服務的提供,對應不同的利潤率,同時也代表Google背后的戰略意圖:


      (1)GPU算力租賃:屬于GCP云業務;本質上是英偉達idia的二道販子,自然毛利率最低只有50%左右,主要給那些技術能力較弱的中小廠商準備(不愿意用TPU編譯器把基于CUDA寫的底層代碼重寫一遍),承接一些外溢的算力需求。

      (2)TPU算力租賃:屬于GCP云業務;因為TPU自研,因此少了中間商賺差價,再加上本身技術路線的差異,盡管TPU算力租賃價格是GPU的60%-70%,但對于Google來說,仍然可以賺70-80%的毛利率。

      (3)TPU機架銷售:屬于第三方的算力售賣服務,等于是和英偉達等同臺競爭。TPU并非像GPU那樣“即插即用”,TPU的優勢是ICI(芯片間互連)和OCS(光交換),單臺服務器無法連入超高速的光網絡,因此最小銷售單位是一個服務器機架,每個機架包含64顆TPU芯片。

      具體銷售時分成兩種情況:

      一種是Broadcom直銷客戶,Google收取GDC軟件棧的技術支持費;

      另一種是Google直銷客戶,那么Google確認硬件收入,Google付給Broadcom、SK等的硬件采購、代工費用為成本。

      由于TPU需要客戶具備一定的技術適配能力,因此客戶目前都是行業頭部。Anthropic是由Broadcom直接發給Anthropic,但Meta、xAI等目前正在排隊與Google商量TPU合作事宜等,也不排除是上述后者情況。

      在Anthropic的合作案例里面,由于是Broadcom直銷+托管Anthropic自己找的第三方數據中心,因此這里面Google并不確認硬件銷售收入,只是對Anthropic使用TPU軟件棧(系統軟件、編譯器XLA和框架JAX)收取一定的技術支持、安全更新的服務費。

      這部分主要是研發前置投入、人員團隊的支持,所以邊際成本較低,對Google來說,毛利率可以做到很高。

      這里面的特殊之處在于,在Anthropic預定的近100萬塊TPU上(第一筆40萬塊+第二筆40-50萬塊),Google并未染指TPU硬件收入部分。海豚君認為,至少在與英偉達idia合作密切的頭部廠商上,Google還是更傾向于不賺所謂的“鏟子錢”。

      這是因為,英偉達idia及其生態伙伴對Anthropic等頭部客戶都用股權投資來給了個內部折扣價:

      a. 英偉達投資OpenAI 1000億,以換取10GW算力合同的綁定,暫時不看股權增值收益,相當于給OpenAI打了個七折(1-100/350);

      b. 微軟、英偉達分別向Anthropic投資50、100億,換取300億的Azure合同,相當于打了個對折。

      因此這種情況下,如果單顆系統級TPU v7價格再算上Google的溢價,那么就相對H200、B200沒有明顯的性價比優勢了。

      可以合理推測,Google并未參與到TPU硬件銷售收入的分成上,而目的是做大TPU生態(尤其是開發者生態),后續通過按年付費的軟件棧服務,以及云租賃算力來獲得更多具備一定溢價的變現。

      當然,這也不排除如果TPU生態完善度提升,Google也可以做起芯片直銷的模式。但短中期而言,我們認為還是做大生態、讓更多的開發者參與進來是主要目標,賣鏟子(實際也賣不出太多溢價)只占少數。


      2. 當下估值隱含了TPU多少預期?

      從積壓合同額(Revenue Backlog)來看,Google Cloud最早在2024年二季度就已經受益AI(收入反映在3Q25)。不過彼時Google Cloud的客戶大多還是以中小企業、傳統企業的需求為主,除了Workspace的慣性增長趨勢,在AI方面貢獻增量(數十億量級)的產品形式還主要是Gemini大模型的API。

      而在芯片算力上,Google還在遵循市場主要方案,按部就班的采購英偉達芯片——2025年初采購Blackwell系列(GB200、300)。

      2025年二季度,隨著TPU v7的發布以及市場對AI的使用滲透升級,積壓合同余額在高基數上重新加速增長,這里面應該就已經有了一些TPU v7帶來的算力租賃增量。

      而三季度凈增的470億中,應該就包含420億的Anthropic算力租賃訂單(前文Anthropic訂單明細表格中60萬顆TPU算力租賃,按照每顆TPU v7 1.6美元/小時單價計算,60萬*1.6美元/h*24h*365天*5年=420億美元)。


      Anthropic并非剛開始租TPU算力,而是一直在用,只不過過去占比不高而已。這次420億的算力租賃訂單,5年周期下平均每年將帶來84億的Google Cloud收入,這相當于2025年預計615億美元Google cloud收入的14%。


      目前在TPU算力租賃這塊,大廠里面還有Apple,中小廠比如Snap,傳統SaaS的Salesforce以及AI新貴Midjourney。Meta在11月也已經宣布有意合作:

      第一階段(2026年)為算力云租賃,第二階段(2027年)為TPU直采,然后部署在自己的數據中心。近日被爆料進展,雙方就底層語言的暢通正在共同開發TorchTPU,一如其名,旨在將Meta基于Pytorch寫的代碼,能夠更加絲滑的運行在TPU上。

      根據機構原來預期,Meta 2026年Capex為1000-1200億,近期Meta有意收縮元宇宙投入(約減少30%)。GPU原計劃采購100萬顆,大頭為GB200,另外為V100。

      但現在,考慮到Meta目前正在積極接觸Google TPU,海豚君預計TPU合同為70億,但2026年主要還是算力租賃,這部分支出計入Meta的Opex,芯片采購部分為20億。剩下500億美元為Blackwell系列采購額,在一定折扣下,有望獲得對應2GW的算力,如下圖預估:


      如果20億芯片采購合同,直接與Google交易,按照2.5萬美元/顆,對應8萬顆。2027年預計該芯片采購升至50萬顆,那么直接帶來50*2.5萬/顆=125億合同額(如果直接從Broadcom拿貨,那Google不確認硬件收入),按照3~5年,平均5年的使用周期來算,每年確認收入25億。

      這部分TPU對應算力規模大約0.5GW,如果Meta目標算力需求不變,那么相當于175億的GPU收入被影響了。

      總而言之,無論采取什么樣的TPU交付方式,或者對Google的收入有主要拉動,對利潤是次要拉動,但對英偉達idia收入預期的影響會因為同等算力下英偉達idia溢價更高而同步放大。就如上文,TPU拿了125億的合同,單英偉達產生了近175億的收入缺口需要從別處找補。

      回到Google身上,由于TorchTPU的開發進展并不確定,因此我們暫時將Meta的TPU訂單視為樂觀預期下的向上期權。即中性預期下,僅考慮Anthropic這一個頭部客戶:


      更詳細的價值分析部分我們已發布在長橋App「動態-深度(投研)」欄目同名文章同樣位置。總結來說,每一次與Meta的合作進展披露,都有可能對短期Google股價帶來提振。

      若最終合同額不足我們預期的70億,那么短中期的提振效果會相對有限。尤其是預期拉得過高的時候,還要考慮26年擁有接近10億MAU的OpenAI如果加速變現可能給谷歌帶來的向下風險。

      但從另一個角度,若Google以犧牲短期業績的代價,換來了更廣的TPU滲透——比如繼續壓價,或者從Broadcom直銷客戶,雖然沒有吃到太多硬件直銷收入,但是讓更多的客戶開始適應TPU的底層框架,后續仍可通過軟件棧、云租賃的形式收回來,這與GPU在硬件銷售時表現出的高額英偉達稅,本質是一樣的,都是一種競爭壟斷的溢價。

      <此處結束>

      //轉載開白

      本文為海豚研究原創文章,如需轉載請添加微信:dolphinR124 獲得開白授權。

      //免責聲明及一般披露提示

      本報告僅作一般綜合數據之用,旨在海豚研究及其關聯機構之用戶作一般閱覽及數據參考,並未考慮接獲本報告之任何人士之特定投資目標、投資產品偏好、風險承受能力、財務狀況及特別需求投資者若基於此報告做出投資前,必須諮詢獨立專業顧問的意見。任何因使用或參考本報告提及內容或信息做出投資決策的人士,需自行承擔風險。海豚研究毋須承擔因使用本報告所載數據而可能直接或間接引致之任何責任或損失。本報告所載信息及數據基於已公開的資料,僅作參考用途,海豚研究力求但不保證相關信息及數據的可靠性、準確性和完整性。

      本報告中所提及之信息或所表達之觀點,在任何司法管轄權下的地方均不可被作為或被視作證券出售邀約或證券買賣之邀請,也不構成對有關證券或相關金融工具的建議、詢價及推薦等。本報告所載資訊、工具及資料並非用作或擬作分派予在分派、刊發、提供或使用有關資訊、工具及資料抵觸適用法例或規例之司法權區或導致海豚研究及/或其附屬公司或聯屬公司須遵守該司法權區之任何註冊或申領牌照規定的有關司法權區的公民或居民。

      本報告僅反映相關創作人員個人的觀點、見解及分析方法,並不代表海豚研究及/或其關聯機構的立場。

      本報告由海豚研究製作,版權僅為海豚研究所有。任何機構或個人未經海豚研究事先書面同意的情況下,均不得(i)以任何方式製作、拷貝、複製、翻版、轉發等任何形式的複印件或複製品,及/或(ii)直接或間接再次分發或轉交予其他非授權人士,海豚研究將保留一切相關權利。


      文章不易,點個“分享”,給我充點兒電吧~

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      1971年外賓順走國寶九龍杯,周總理一招讓他掏出來,全場鼓掌叫好

      1971年外賓順走國寶九龍杯,周總理一招讓他掏出來,全場鼓掌叫好

      宅家伍菇涼
      2025-12-22 09:00:03
      徹底摧毀雷霆74勝之夢?馬刺20分再勝雷霆 真克星!

      徹底摧毀雷霆74勝之夢?馬刺20分再勝雷霆 真克星!

      體壇周報
      2025-12-24 12:26:24
      比恒大還慘!中國第二大民企轟然倒塌,負債7500億,創始人被帶走

      比恒大還慘!中國第二大民企轟然倒塌,負債7500億,創始人被帶走

      甜檸聊史
      2025-12-24 18:22:43
      南京這把火,直燒到了北京一位"通天"人物的心坎上

      南京這把火,直燒到了北京一位"通天"人物的心坎上

      小莜讀史
      2025-12-24 02:19:53
      46%機率提前退役,再見詹姆斯?剛創下NBA79年紀錄,你該落葉歸根

      46%機率提前退役,再見詹姆斯?剛創下NBA79年紀錄,你該落葉歸根

      毒舌NBA
      2025-12-24 08:40:10
      齊達內認證!唯一能與皇馬平級的俱樂部,不是巴薩尤文

      齊達內認證!唯一能與皇馬平級的俱樂部,不是巴薩尤文

      瀾歸序
      2025-12-25 01:57:21
      弘一法師:如果有人辜負了你,不要去怨恨他,你只需要停止付出

      弘一法師:如果有人辜負了你,不要去怨恨他,你只需要停止付出

      杏花煙雨江南的碧園
      2025-12-24 13:29:44
      澤連斯基:中方助長俄羅斯“侵略”,將對中國公民實施新的制裁

      澤連斯基:中方助長俄羅斯“侵略”,將對中國公民實施新的制裁

      知法而形
      2025-12-23 21:29:34
      浙江省紀委省監委網站:林建波,主動投案

      浙江省紀委省監委網站:林建波,主動投案

      上觀新聞
      2025-12-25 08:02:12
      普京報仇不隔夜!俄中將遇害后,基輔被炸成火海,更可怕的在后面

      普京報仇不隔夜!俄中將遇害后,基輔被炸成火海,更可怕的在后面

      云上烏托邦
      2025-12-24 12:10:48
      回應武漢大學楊景媛對我連發的12句去死

      回應武漢大學楊景媛對我連發的12句去死

      畫生筆記
      2025-12-23 15:29:07
      港媒曝徐湖平已被帶走,獨棟別墅全是文物,知情鄰居透露更多信息

      港媒曝徐湖平已被帶走,獨棟別墅全是文物,知情鄰居透露更多信息

      壹月情感
      2025-12-25 06:00:08
      明年最猛的科技賽道,基本定了!

      明年最猛的科技賽道,基本定了!

      君臨財富
      2025-12-24 15:46:16
      五件南博處置文物已找到,院長徐湖平涉嫌走私故宮南遷文物

      五件南博處置文物已找到,院長徐湖平涉嫌走私故宮南遷文物

      亞哥談古論今
      2025-12-23 18:35:47
      人社部部長表態!2026養老金到底怎么漲?30年以上工齡更吃香?

      人社部部長表態!2026養老金到底怎么漲?30年以上工齡更吃香?

      丁丁鯉史紀
      2025-12-25 09:43:07
      文班亞馬:得知患血栓那5分鐘我徹底崩潰了,我感受到生命的脆弱

      文班亞馬:得知患血栓那5分鐘我徹底崩潰了,我感受到生命的脆弱

      懂球帝
      2025-12-25 08:00:14
      馬斯克預測美國經濟18個月內實現兩位數增長,AI成關鍵驅動力

      馬斯克預測美國經濟18個月內實現兩位數增長,AI成關鍵驅動力

      華爾街見聞官方
      2025-12-25 05:42:06
      曾經他們硬氣的拒絕了中國,如今好懷念他們當初桀驁不馴的樣子!

      曾經他們硬氣的拒絕了中國,如今好懷念他們當初桀驁不馴的樣子!

      阿傖說事
      2025-12-23 14:06:40
      1960年春節,周總理請溥儀吃飯,酒桌上溥儀講了個慈禧的“笑話”,總理聽完,當場陷入了沉思

      1960年春節,周總理請溥儀吃飯,酒桌上溥儀講了個慈禧的“笑話”,總理聽完,當場陷入了沉思

      歷史回憶室
      2025-12-24 10:29:12
      長城魏建軍回應魏牌“九年八換CEO”:并不是我們辭退人家,是他們自己感覺壓力特別大

      長城魏建軍回應魏牌“九年八換CEO”:并不是我們辭退人家,是他們自己感覺壓力特別大

      紅星資本局
      2025-12-24 11:41:09
      2025-12-25 10:47:00
      海豚投研 incentive-icons
      海豚投研
      有靈魂的思考,有態度的研究
      548文章數 19關注度
      往期回顧 全部

      科技要聞

      屠龍少年被"招安"!英偉達平安夜豪擲200億

      頭條要聞

      媒體:靖國神社強塞韓軍人牌位 韓國如何清算是個看點

      頭條要聞

      媒體:靖國神社強塞韓軍人牌位 韓國如何清算是個看點

      體育要聞

      26歲廣西球王,在質疑聲中成為本土得分王

      娛樂要聞

      金莎被小19歲男友求婚,成功后擁抱親吻

      財經要聞

      美國未來18個月不對中國芯片加額外關稅

      汽車要聞

      預售31.3萬元起 全新奧迪Q5L將于1月內上市

      態度原創

      房產
      親子
      本地
      數碼
      公開課

      房產要聞

      硬核!央企海口一線江景頂流紅盤,上演超預期交付!

      親子要聞

      江西幼兒園園長駕車落水,致8人遇難后續,家長:園長也是好心

      本地新聞

      云游安徽|一川江水潤安慶,一塔一戲一城史

      數碼要聞

      1799元起!華為MatePad 11.5正式開售 主打護眼學習

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: jizz日本大全| 波多野结衣av无码久久一区| 亚洲综合久久一区二区| 99色色网| 国产成人精品18| 国产精品久久久亚洲| 久久中文骚妇内射| 亚洲成人国产精品| 婷婷色影院| 丝袜?亚洲?另类?国产?另类| 亚洲成人无码电影| www插插插无码免费视频网站| 伊人在线亚洲| 宝鸡市| 久久久久久av| 精品国产成人国产在线视| 色婷婷色| 天美传媒精品| 男受被做哭激烈娇喘gv视频| 国产九九视频在线| 日日干日| 日韩aⅴ| 最新精品露脸国产在线| 亚洲成a人在线播放www| 亚洲成av人影院| 202丰满熟女妇大| 一本色道精品| 上栗县| 拍拍拍免费视频| 国产熟妇??码视频| 亚洲欧美日韩高清一区二区三区 | 日本欧美大码a在线观看| 东京道一本热中文字幕| 男女做爰猛烈吃奶啪啪喷水网站| 欧美色综合天天久久综合精品| 日韩AV色| 饶平县| 91探花国产综合在线精品| 欧美啪啪视频| 国产AV无码专区亚洲AWWW| 免青青草免费观看视频在线|