樹莓派新款AI HAT+ 2 擴展板:升級神經加速與內存,賦能樹莓派 5 的生成式 AI 任務
樹莓派近期推出新款 AI HAT+ 2 擴展板,這是其首款專為樹莓派 5 平臺打造、適配生成式 AI 任務的硬件附加板(HAT)產品。
![]()
The Raspberry Pi AI HAT +2.
該產品在初代 AI HAT 及 AI HAT + 的設計基礎上迭代升級,搭載高性能神經網絡加速器并強化系統集成能力,可滿足傳統計算機視覺推理之外的更多應用場景需求。
AI HAT+ 2 的架構與核心性能
樹莓派 AI HAT+ 2 為全尺寸 HAT + 規格,完美兼容樹莓派 5,板載Hailo-10H 神經網絡加速器。該加速器的 8 位整數(INT8)推理算力可達 40 萬億次運算每秒(TOPS),相較基于海洛 - 8 的前代 AI HAT+(算力最高 26 TOPS)實現大幅提升。憑借更強的計算能力,這款擴展板成為運行基于 Transformer 架構和擴散式模型的理想選擇,這類模型對持續吞吐量的要求遠高于早期的邊緣 AI 任務。
Hailo-10H 加速器通過樹莓派 5 的 HAT + 接口,以第二代 PCIe x1 總線與主機相連。這種直連方式規避了 USB 接口加速器的帶寬瓶頸,實現主機內存與神經處理單元之間的低延遲數據傳輸。同時,擴展板內置板載電源調節模塊,可在樹莓派 5 的功耗限制范圍內,為加速器的峰值負載提供穩定供電。
![]()
樹莓派 AI HAT +2 配備了 8 GB 專用板載內存,因此能夠支持比以往更大的模型。
Hailo-10H 在初代基礎上優化了片上內存資源,提升了數據流調度的靈活性,推理過程中,大模型的部分計算模塊可常駐加速器中。加之 8GB 板載內存的加持,樹莓派官方表示,該擴展板可支持參數量最高達 60 億的大語言模型(LLM)和視覺語言模型(VLM)。
在硬件兼容性上,這款擴展板與樹莓派標準機箱、散熱配件完全適配,且隨板附贈專用散熱片。樹莓派官方建議,若需長時間高負載運行,搭配主動式散熱器使用。
軟件層面,AI HAT+ 2 全面兼容樹莓派官方系統 Raspberry Pi OS,同時可無縫對接海洛全套軟件棧,包括模型編譯工具與運行時庫。
為生成式AI 打造的邊緣加速方案
生成式 AI 模型與傳統推理任務在模型結構和資源需求上存在顯著差異。多數生成式 AI 模型基于 Transformer 架構構建,依賴反復的矩陣運算、注意力機制,且擁有龐大的參數量;與功能固定的計算機視覺處理流程不同,生成式模型往往需要對同一數據結構進行迭代運算,因此內存局部性與調度效率成為關鍵性能指標。
在資源受限的邊緣設備中,通用 CPU 難以在合理的功耗范圍內,為生成式 AI 任務提供可用的運算性能。而專用神經加速器通過搭載針對低精度運算(通常為 8 位整數或混合精度)優化的并行計算陣列,可有效解決這一問題;同時,加速器依托緊耦合內存和確定性數據流,減少高能耗、高延遲的外部內存訪問,進一步提升運算效率。
邊緣部署場景中,模型的適配靈活性也是重要考量因素。需對生成式 AI 模型進行量化與編譯,使其適配加速器的執行邏輯,同時保證輸出效果不會出現不可接受的衰減。這對編譯器的成熟度、工具鏈的完善度提出了更高要求,尤其針對快速迭代的生成式 AI 任務而言,更是如此。
解鎖樹莓派全新應用場景
AI HAT+ 2 的推出,讓樹莓派得以支持此前超出其平臺實際性能上限的應用。當大模型能在端側實現低延遲推理后,本地文本生成、語音轉文字預處理、圖像描述生成、多模態智能助手等應用均具備了落地可行性。對于開發者而言,這也為打造隱私保護型、離線運行型系統創造了條件,這類系統無需依賴持續的云端網絡連接。
目前,樹莓派 AI HAT+ 2 已通過樹莓派官方授權經銷商正式發售。
EETOP創芯大講堂芯片課程推薦
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.