![]()
公司情報專家《財經涂鴉》獲悉,9月1日,美團宣布正式發布龍貓(LongCat-Flash-Chat)大模型,并同步開源。
作為一款非思考型基礎模型,龍貓采用創新性混合專家模型(Mixture-of-Experts, MoE)架構,由于主要面向推理效率的設計和創新,該模型具有更快的推理速度,更適合耗時較長的復雜智能體應用。
目前,LongCat-Flash-Chat已在Github、Hugging Face平臺同步開源。
值得一提的是,龍貓已于8月28日啟用名為“LongCat”的獨立公眾號,注冊主體為北京三快科技有限公司,賬號簡介為“美團龍貓Longcat大模型官方賬號”。9月1日,該公眾號發布了第一篇也是截至目前唯一一篇文章,名為《美團正式發布并開源LongCat-Flash-Chat,動態計算開啟高效AI時代》。
![]()
來源:龍貓公眾號截圖
從性能方面看,美團表示,在僅激活少量參數的前提下,該模型依然可“比肩當下領先的主流模型”,尤其在智能體任務中具備突出優勢,實現了計算效率與性能的雙重優化。
據介紹,LongCat-Flash模型在架構層面引入“零計算專家(Zero-Computation Experts)”機制,總參數量560 B,每個token 依據上下文需求僅激活18.6B~31.3 B參數,實現算力按需分配和高效利用。
通過算法和工程層面的聯合設計,LongCat-Flash在理論上的成本和速度都大幅領先行業同等規模、甚至規模更小的模型;通過系統優化,其在H800上可實現100 tokens/s的生成速度,在保持極速的同時,輸出成本低至 5元/百萬token。
同時,該模型在通用領域知識、智能體(Agentic)工具使用、編程及指令遵循方面均實現了顯著的性能優勢。
美團表示,已同步提供了分別基于SGLang和vLLM兩種高效部署方案,以協助用戶輕松部署、快速體驗模型效果。此次開源倉庫統一采用 MIT License,并允許用戶利用模型輸出、通過模型蒸餾等方式訓練其他模型。
今年3月份,王興曾于2024年第四季度及年度業績會中強調,“當像AI這樣具有根本性革命意義的技術到來時,唯一可行的策略是調動所有資源主動進攻”。
他透露,美團自主研發的“龍貓”大語言模型已與外部模型協同應用,推動員工生產力得到顯著提升。
例如在客服領域,基于自研模型打造的智能客服代理試點運營后,效率提升超20%,客戶滿意度上升7. 5個百分點;在商務拓展中,AI銷售助手幫助團隊在今年春節期間完成120萬商戶信息更新,使BD團隊工作量減少44%,平臺商戶信息準確率同步提升;技術團隊使用的AI編程工具已集成至開發環境,目前公司27%的新代碼由AI生成。
在5月份Q1業績會中,美團又宣布于季內迭代了基礎大語言模型,增強后的模型可在推理模式與非推理模式間無縫切換,且兩種模式下的性能均達到國內領先模型水平。
同步更新的端到端語音交互模型,則在理解情感、語境等細微信息及進行自然語音對話方面展現出先進能力,性能已接近 GPT 4.0 水平。
不久前Q2業績會中,管理層進一步表示,擴展了AI業務協助的場景覆蓋范圍,努力覆蓋從簡單日常任務到復雜操作的端到端工作流程,幫助商家降低成本、提高效率。
今年以來,美團已連續發布AI Coding Agent工具NoCode、經營決策助手袋鼠參謀、酒店垂類AI Agent美團既白等多款垂直場景應用。
作者:蘇打
編輯:tuya
出品:財經涂鴉(ID:caijingtuya)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.