文 | 山自
2026年2月,AI 算力行業(yè)的平靜被一家加拿大初創(chuàng)公司徹底打破。
由前 AMD、英偉達架構師柳比薩?巴伊奇(Ljubisa Bajic)創(chuàng)立的 Taalas,帶著其 “Model Based” 芯片架構與累計超 2.19 億美元的融資浮出水面。這家公司喊出了 “將 AI 模型效率提升 1000 倍” 的激進口號,宣稱其首款產(chǎn)品 HC1 能以 17,000 Token / 秒的推理速度,將 Llama 3.1 8B 模型的推理成本降至 0.75 美分 / 百萬 token—— 這一數(shù)字是傳統(tǒng) GPU 云服務的 1/266。
![]()
在英偉達通過 200 億美元推理技術許可協(xié)議 “收編” Groq、全行業(yè)陷入通用算力內(nèi)卷的當下,Taalas 的 “硬核模型” 路線不僅是對摩爾定律的重新詮釋,更預示著 AI 算力市場正從 “通用主導” 走向 “通用與專用并存” 的分裂格局。本文將深度解析 Taalas 的技術革命、商業(yè)化困境,以及這場架構之爭對全球 AI 產(chǎn)業(yè)的長遠影響。
一場“反通用” 豪賭正秘密進行
Taalas 的誕生,源于巴伊奇對 AI 算力現(xiàn)狀的深刻不滿。這位曾主導 Tenstorrent 可擴展 AI 加速器研發(fā)的芯片老兵,在 2023 年 3 月離開 Tenstorrent 后,與工程師 Drago Ignjatovic、Lejla Bajic 共同創(chuàng)立了 Taalas,核心使命是 “將人工智能商品化”。
“人工智能就像電力一樣 —— 這是一種不可或缺的必需品,必須向所有人提供。” 巴伊奇在公司亮相時表示,“將人工智能商品化需要對計算能力和效率進行 1000 倍的提升,而這一目標通過當前漸進式的手段是無法實現(xiàn)的。”
這種 “非漸進式” 的思路,讓 Taalas 從一開始就走上了與英偉達對立的道路。公司在 2023 年 8 月至 2024 年 3 月間完成兩輪融資,首輪 5000 萬美元由皮埃爾?拉蒙德和 Quiet Capital 牽頭,后續(xù)融資使其總估值達到 2.19 億美元。值得注意的是,投資人皮埃爾?拉蒙德對團隊的評價極為直接:“他們做芯片的經(jīng)驗業(yè)內(nèi)頂級,這個方向能實現(xiàn) 1000 倍的成本改善,推動 AI 成為基礎設施級能力。”
Taalas 的研發(fā)效率同樣令人驚嘆。這款被命名為 HC1 的首款產(chǎn)品,由 24 人團隊僅用 3000 萬美元研發(fā)成本就完成設計,并與臺積電達成合作,實現(xiàn)了 “2 個月從模型權重到可部署硬件” 的極速生產(chǎn)周期。按照原計劃,HC1 應在 2025 年第一季度向客戶供貨,而最新消息顯示,這款芯片已進入技術驗證階段,其極端的性能表現(xiàn)正在重塑行業(yè)對推理算力的認知。
Model Based 架構:把大模型 “寫死” 在硅片上
Taalas 的 1000 倍效率神話,并非來自玄學突破,而是源于對傳統(tǒng) AI 芯片架構的徹底重構。與通用 GPU“內(nèi)存加載模型、軟件調(diào)度運行” 的模式不同,Taalas 采用了 “Model Based” 架構,將特定大模型的訓練結果直接固化在晶體管層面,實現(xiàn)物理意義上的 “硬核模型”。
![]()
傳統(tǒng) GPU 為了兼容多模型、多任務,預留了大量運算單元與調(diào)度邏輯,導致硬件冗余度極高。而 Taalas 的架構創(chuàng)新,本質(zhì)上是一場 “效率與靈活性的極致取舍”:
1、硬件固化權重
采用 mask ROM recall fabric + SRAM 架構,將 Llama 3.1 8B 等模型的權重直接寫入硬件,徹底繞開了高帶寬內(nèi)存(HBM)這一成本與功耗瓶頸。這種 “硬連線” 設計讓模型推理不再依賴外部內(nèi)存讀寫,從根本上降低了延遲與能耗。
2、單模型專用設計
每塊 HC1 芯片僅支持單一模型,通過犧牲靈活性換取極致性能。在實測中,其推理速度達到 17,000 Token / 秒,是英偉達 H200 GPU(230 Token / 秒)的 50 倍,遠超 Cerebras WSE(2,000 Token / 秒)等專用加速器。
3、成本與功耗優(yōu)化
得益于架構簡化,HC1 的硬件成本比傳統(tǒng)方案降低 20 倍,功耗減少 10 倍。對于數(shù)據(jù)中心而言,這意味著 “以 10% 功耗運行同等規(guī)模模型”,將徹底改寫 AI 投資回報曲線。
中國科學院計算技術研究所副研究員趙永威對這一技術路線給予了高度評價:“雖然 Taalas 目前的狀況還沒有應用價值,但不妨礙它會成為一顆有歷史意義的芯片。這種硬連線模式是未來芯片發(fā)展的一大趨勢,目前的質(zhì)疑由 Taalas 來扛,后來者在推廣相關概念時會更加輕松。”
極致的速度背后,是初代產(chǎn)品難以回避的短板。在實際測試中,HC1 雖然能實現(xiàn) “2000 字回復秒出” 的驚人表現(xiàn),但回復質(zhì)量卻存在明顯缺陷 —— 不僅簡單運算會出現(xiàn)錯誤,復雜問題下還會出現(xiàn) “胡編亂造” 的情況。
這一問題的核心原因,在于 HC1 初代產(chǎn)品采用的定點數(shù)格式無法滿足復雜推理的精度需求。為了對沖這一風險,Taalas 已明確規(guī)劃第二代產(chǎn)品 HC2,將改用標準 4-bit 浮點格式改善精度問題,同時將模型支持規(guī)模提升至 200 億參數(shù),計劃在 2026 年底前覆蓋 GPT-5 級別系統(tǒng)。
“感覺像作弊一樣快。”Basecamp 創(chuàng)始人 DHH 的試用評價,精準概括了 HC1 的用戶體驗。而 Cambrian-AI 首席分析師 Karl Freund 則用 “insane(瘋狂)” 來形容其性能表現(xiàn)。這種 “速度與精度的矛盾”,也成為 Taalas 商業(yè)化落地的核心挑戰(zhàn)。
“一模型一芯片” 的生存邏輯
在巴伊奇的設想中,Taalas 并非要取代英偉達 GPU,而是要填補 “通用算力與極致效率之間的市場空白”。目前,公司已探索出三條商業(yè)化路徑:自建 API、直接出售芯片、與模型開發(fā)者合作定制芯片,其核心邏輯是 “鎖定高粘性垂直場景”,推動 “一模型一芯片” 的定制化趨勢。
Taalas 的產(chǎn)品定位,精準命中了三類對延遲敏感、模型版本穩(wěn)定的應用場景:
- 企業(yè)專用模型場景
金融、醫(yī)療、法律等行業(yè)的企業(yè),往往長期使用固定版本的私有化模型。對于這類客戶,HC1 的成本優(yōu)勢極為明顯 —— 推理成本降至傳統(tǒng)方案的 1/266,足以讓許多此前不可行的 AI 應用變得具備商業(yè)價值。
- 邊緣推理場景
人形機器人、自動駕駛汽車、高端智能手機等設備,對實時性要求極高,且無需運行多模型。
- 大規(guī)模客服場景
電商、運營商的智能客服系統(tǒng),常年運行標準化對話模型,對響應速度的要求遠高于復雜推理能力。HC1 的 “秒級響應” 能顯著提升用戶體驗,同時將運營成本削減 90% 以上。
Taalas 產(chǎn)品副總裁 Paresh Kharya 明確表示:“為模型定制的最優(yōu)硅片不會取代滿是 GPU 的大型數(shù)據(jù)中心,但它會適配特定的應用場景。” 這種 “互補而非替代” 的定位,為 Taalas 在英偉達的陰影下找到了生存空間。
盡管場景定位清晰,但 Taalas 的商業(yè)模式仍面臨兩大核心不確定性:
首先是模型迭代風險。“一模型一芯片” 的模式,意味著客戶必須對特定模型做出長期承諾。在大模型架構快速演進的當下,一旦行業(yè)轉(zhuǎn)向全新架構(如超越 Transformer 的革命性設計),現(xiàn)有專用硬件將快速貶值。Taalas 的應對策略,是押注 Llama 等開源架構的長期主導地位,同時通過 LoRA 微調(diào)技術優(yōu)化芯片固化模型的適應性。
其次是生態(tài)系統(tǒng)短板。英偉達的真正護城河并非硬件,而是 CUDA 軟件生態(tài)和開發(fā)者的重度依賴。相比之下,Taalas 的專用芯片缺乏配套的開發(fā)工具鏈,開發(fā)者需要重新適配,這無疑提高了客戶的遷移成本。如何在短時間內(nèi)構建起自己的生態(tài),成為 Taalas 能否規(guī)模化落地的關鍵。
Taalas 的崛起,并非孤立的行業(yè)現(xiàn)象。2025 年底,英偉達以 200 億美元的價格與 Groq 達成推理技術許可協(xié)議,這一交易被業(yè)內(nèi)視為 “通用算力巨頭向?qū)S猛评碣惖劳讌f(xié)” 的信號。
作為谷歌 TPU 核心開發(fā)者 Jonathan Ross 創(chuàng)立的公司,Groq 的 LPU 推理芯片同樣采用專用架構,憑借確定性設計和片上 SRAM 內(nèi)存實現(xiàn)了超低延遲。英偉達通過 “非獨占技術許可 + 核心人才吸納” 的方式,快速補全推理短板,同時降低收購風險。有消息稱,英偉達下一代 Feynman GPU 可能在 2028 年集成 Groq 的 LPU 單元,形成 “通用 + 專用” 的混合架構。
這場路線之爭的本質(zhì),是 AI 產(chǎn)業(yè)從 “模型訓練階段” 向 “規(guī)模化推理落地階段” 轉(zhuǎn)型的必然結果。隨著大模型發(fā)布間隔時間延長,企業(yè)對成熟模型的依賴度不斷增加,專用推理芯片的市場空間正在快速擴大。
未來的 AI 算力市場將呈現(xiàn) “三分天下” 的格局:英偉達 GPU 主導訓練場景和通用推理場景,Taalas 等 “模型即芯片” 企業(yè)占據(jù)高粘性垂直場景,而谷歌 TPU、微軟 Azure Maia 等云廠商自研芯片則深耕云原生推理市場。這種分化,將徹底打破英偉達的壟斷地位,推動 AI 算力進入 “專業(yè)化分工” 時代。
對于 Taalas 而言,2026 年將是決定其命運的關鍵一年。第二代產(chǎn)品 HC2 的推出,將驗證其技術路線的可擴展性;而商業(yè)化落地的成效,將決定資本對 “模型即芯片” 路線的信心。要真正實現(xiàn)巴伊奇 “將 AI 商品化” 的愿景,Taalas 還需要跨越三道門檻:
第一,精度與速度的平衡。HC2 能否在采用 4-bit 浮點格式后,保持 HC1 的極致速度優(yōu)勢,同時顯著提升推理正確率,將直接決定其能否進入金融、醫(yī)療等高精度要求場景。
第二,成本與規(guī)模化的突破。目前 HC1 仍處于技術驗證階段,未公開定價。要實現(xiàn) “推理成本降至 1/266” 的承諾,Taalas 需要通過大規(guī)模量產(chǎn)降低制造成本,同時優(yōu)化供應鏈管理。
第三,生態(tài)與合作伙伴的積累。與模型廠商、云服務商、垂直行業(yè)客戶建立深度合作,構建起 “模型定制 - 芯片設計 - 場景落地” 的完整閉環(huán),才能擺脫 “小眾技術” 的標簽,成為行業(yè)標準的制定者。
![]()
從更長遠的視角看,Taalas 的探索不僅關乎一家初創(chuàng)公司的生死,更關乎 AI 產(chǎn)業(yè)的未來走向。如果 “模型即芯片” 路線被證明可行,將推動 AI 算力從 “追求通用” 轉(zhuǎn)向 “追求極致效率”,讓 AI 技術真正滲透到千行百業(yè),實現(xiàn)巴伊奇 “讓 AI 像電力一樣無處不在” 的愿景。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.