通常英特爾進入一個領域,都不會是單一的硬件或者軟件,而是會通過系統性升級帶來生態整體變化,早些年的輕薄本設計推廣就是很好的例子。隨著AI PC概念提出第三年,英特爾除了將酷睿Ultra的AI TOPS提升5倍,也給行業、軟件、生態帶來了全面升級,這也是2025英特爾技術創新與產業生態大會第二天的主題。
![]()
在AI新技術和軟件創新論壇上,英特爾沒有將太多的重心放在明年CES 2026上即將發布的Panther Lake,而是聚焦當下,ARC Pro B60,酷睿Ultra 200H等已經量產的產品,在現有的資源下,就能讓輕薄本、miniPC獲得運行120B MoE大模型的性能,即使放在一年前,這樣的場景是無法想象的。
![]()
英特爾技術部總經理高宇
酷睿Ultra 9 285H很能打
論壇的第一個主題放在了已經發布近一年的酷睿Ultra 9 285H上。酷睿Ultra 9 285H最高可以支持128GB內存,通過統一內存架構驅動,可以給Arc 140T核顯分配高達95%的內存空間,相當于一塊擁有了120GB的顯卡。
大顯存顯卡幾乎決定了AI運算模型的天花板,在現場的展示中,通過一套具備96GB內存的mini PC,就可以在本地流暢運行20B到120B參數的大模型,英特爾甚至在現場與極客灣云飛合作,展示30K tokens的長上下文的紅樓夢續寫。
得益于酷睿Ultra 9 285H高效能的特性,這套SoC并非限制在輕薄本中,無論是設計師筆記本、mini PC還是嵌入式設備,都可以搭載酷睿Ultra 200H處理器,利用本地大模型實現更多的離線、邊緣AI應用。
現場展示的DeepSeek OCR和本地TTS語音合成都是其中之一,OCR在日常中解決了很多文字、表格變成文本的問題,但傳統的OCR識別能力堪憂,往往需要人工重新矯正。DeepSeek OCR厲害的地方在于,利用本地大模型的優勢,就可以非常準確的識別文字和表格內容,并在PC中重新繪制,節省了海量的時間。
![]()
本地TTS語音合成則更有意思,通過簡短的音頻識別,就可以讓原聲產出不曾說過的內容,比如讓豬王播報重慶的天氣預報。
重點在于,多個模型之間是可以通過一套AI工作流串通起來的,這也是英特爾打通生態的目的之一。在現場,通過一臺AI PC,就能一口氣實現OCR、大綱生成、腳本撰寫、聲音TTS合成,并最終生成視頻,現場快速制作出了一套康熙野史的短視頻,全程幾乎不需要人工干預,創作者只需要關注調整細節。
![]()
如果一臺AI PC算力不夠,那么就用上兩臺。兩臺AI PC通過雷電接口互聯的技術在此之前其實已經開始實踐,不過最早雷電互聯用于數據傳輸和新舊電腦設置同步。由于雷電接口潛能巨大,特別是雷電5最高傳輸速率達到120Gbps,正常模式也和雷電4一樣擁有80Gbps,兩個AI PC進行大模型的分工合作是完全有機會的。
![]()
同時,英特爾也在考慮在這樣的基礎上構建一個AI模型分配的路由PC,又一臺AI PC管理一整個PC群實現小工作室、家庭中的大模型運行,對于自媒體等內容創作者而言,無疑是個好消息。
除了雷電互聯,英特爾與SSD主控廠商Phison合作推出了aiDAPTIV+技術,即是將大模型推理中的KV Cache存儲在專用SSD中,避免重復計算,在RAG、代碼生成等場景下可實現7-8倍的加速。特別是加速第一次運算時的Token速度,后續加速都非常有意義。類似這套以存代算,將SSD升級成AI SSD的方式其實也是未來存儲廠商升級SSD的方向之一,例如鎧俠等頭部廠商也已經開始在企業級SSD中開始部署相似的AI加速策略。
![]()
同樣,大模型并非限制在AI PC上,基于酷睿Ultra的AI Box在智能座艙和智能家居中也同樣付諸實踐,比如停車場二維碼識別、家庭安防與寵物看護,具備低延遲、隱私保護和個性化服務特點。
![]()
最后也少不了現場展示剛推出不久的ARC Pro B60顯卡,單卡具備24GB顯存,支持最高16卡互聯,在一臺配備雙芯B60顯卡的緊湊型PC上,同時運行文生圖、文生視頻、語音交互、多模態問答、OCR、代碼生成等8個模型,以及調用AI智能體完成復雜任務。
![]()
![]()
![]()
現成的黑科技
只有AI PC和AI Box對于日常生活而言也是不夠的,AI生態其實更為缺乏的是周邊硬件、應用,以及一套判定AI PC性能的標準。
在論壇的下半場,賽迪研究院展示了AI PC測試標準的可能性,也指出了AI PC當下面臨著功耗、軟硬一體結合、離線場景應用的多種挑戰。而在未來,異構計算、模型輕量化、端云協同也將成為端側AI的趨勢。
![]()
同樣基于AI應用的鼠標、會議耳機、攝像頭也已經陸續發布,旨在通過硬件延伸探索AI應用更多的可行性。
![]()
在軟件上,必優科技ChatPPT,百度文心APP電腦版以及QQ音樂也分別展示了利用本地AI大模型帶來的體驗升級,比如ChatPPT通過端云混合架構,在保護本地文檔隱私的同時,利用云端強大渲染能力快速生成PPT。QQ音樂則是可以通過臻品母帶超分的方式,在節省流量的前提下提升音質,或者依靠35B模型本地創作AI音樂。
![]()
目前為止,英特爾已經與超過250家ISV合作,覆蓋創作、文字、學習等生態的AI PC應用場景,確保AI PC不僅只有算力,還能與本土用戶習慣相結合,快速擴展AI應用的影響力。
![]()
![]()
AI PC的寒武紀
自從2023年AI PC概念提出以來,端側AI隨著AI TOPS性能提升迎來模型趨勢上的變化。從整體而言,端側AI模型正在向兩個方向發展,一個是參數量大但激活稀疏的MoE模型,另一個蒸餾壓縮模型,前者參數量大,后者小而精,兩者共同的特點是具備思維鏈和工具調用能力,適合端側部署。
![]()
其中稀疏化MoE模型更側重于內存帶寬和存儲容量,一方面由于模型擁有萬億級參數,在使用的時候只會激活對應部分,雖然每次計算量不大,但模型需要頻繁地從內存中加載當前要激活的專家參數。這個過程被稱為權重交換。因此,內存帶寬成為了關鍵瓶頸。速度足夠快的內存可以確保參數被迅速送達計算單元,避免等待。這時候酷睿Ultra 200H的128GB內存容量支持就起到了關鍵的效果。
![]()
對應的,蒸餾壓縮模型更側重于持續算力和能效,即通過知識蒸餾,將一個大模型的能力壓縮到一個參數量小得多的稠密模型中,比如8B壓縮到2B以內,每次運算的時候都是完整的模型運算,對處理器的AI TOPS算力要求更高,同時也需要英特爾XPU架構高效的分配NPU、GPU、CPU進行矩陣乘法等計算,這也是競爭對手在生態上無法做到的。
但無論哪一個方向,端側模型對AI TOPS的算力是硬需求。在硬件的加持下,AI從原來的只會動嘴,演變成了裝上手腳,具備了聽(ASR)、看(VL+OCR)、說(TTS)等多模態能力。這意味著未來的端側設備,無論是輕薄本、平板,都將由簡單的桌面助手升級成AI智能體,在短時間獲得更高的工作效率。
![]()
從Meteor Lake的34 AI TOPS到Panther Lake的180 AI TOPS,AI算力在三年內提升了5倍。更重要的是,圍繞這套硬件搭建起來的AI生態,不僅影響到了桌面辦公,也從實際上影響到了商場、交通中的AIoT,原本需要管理工作者付諸體力和精力的工作,在攝像頭、傳感器沒有升級的前提下,轉由AI 7x24小時代管,且判斷更為準確。
值得注意,現場展示的DEMO均基于已經量產許久的酷睿Ultra 200H展開,120TOPS算力已經能夠幫助終端用戶完成很多端側AI應用的實現,這也讓筆者更為期待接下來Panther Lake推出后,180TOPS算力可以帶來什么樣的新變化。可以肯定的是,隨著英特爾AI生態布局的展開,AI應用的普適性將最終影響到身邊所有人,一臺AI PC帶來的潛能,也將進一步被放大。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.