![]()
智東西
作者|王涵
編輯|冰倩
智東西12月30日報道,剛剛,騰訊混元開源翻譯模型1.5版本,共包含兩個模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支持33個語種互譯以及5種民漢/方言,除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。
![]()
▲Tencent-HY-MT1.5-1.8B開源(來源:Hugging Face)
![]()
▲Tencent-HY-MT1.5-7B開源(來源:Hugging Face)
HY-MT1.5-1.8B主要面向手機等消費級設(shè)備場景,支持端側(cè)直接部署和離線實時翻譯,僅需1GB內(nèi)存即可流暢運行。
HY-MT1.5-7B模型是此前獲得WMT25比賽30個語種翻譯冠軍模型的升級版,重點提升了翻譯準(zhǔn)確率,大幅減少了譯文中夾帶注釋和語種混雜的情況,實用性進一步增加。
在部分用戶實際使用場景下,混元翻譯1.8B和7B兩個尺寸模型同時使用,可以實現(xiàn)端側(cè)和云側(cè)模型的協(xié)同部署,提升模型的效果的一致性和穩(wěn)定性。
基準(zhǔn)測試方面,在中外互譯和英外互譯測試集Flores200、WMT25以及民漢語言的測試集中,Tencent-HY-MT1.5-1.8B全面超越Qwen3-32B,與Qwen3-235B-A22B等大尺寸閉源模型成績不相上下。
同時,在處理效率上,與主流商用翻譯模型API對比,HY-MT1.5-1.8B處理50個tokens的平均耗時只有0.18秒,其他模型的時間在0.4秒左右。
技術(shù)方面,HY-MT1.5-1.8B能夠用小尺寸實現(xiàn)大尺寸模型的效果,得益于On-Policy Distillation(大尺寸模型蒸餾)策略的引入,HY-MT1.5-7B作為Teacher,能夠?qū)崟r引導(dǎo)1.8B的Student模型,讓其避免死記硬背標(biāo)準(zhǔn)答案,通過糾正在預(yù)測序列分布時的偏移,讓小模型從錯誤中學(xué)習(xí),進而提升能力。
![]()
▲On-Policy Distillation(大尺寸模型蒸餾)策略(來源:騰訊混元)
目前兩個模型均已在騰訊混元官網(wǎng)上線,在GitHub和Hugging Face等開源社區(qū)也可直接下載使用,Arm、高通、Intel、沐曦等多個平臺均支持部署。
混元官網(wǎng):
https://hunyuan.tencent.com/modelSquare/home/list
GitHub鏈接:
https://github.com/Tencent-Hunyuan/HY-MT
Hugging Face鏈接:
https://huggingface.co/collections/tencent/hy-mt15
一、互譯成績超越Qwen3-32B,響應(yīng)速度僅0.18秒
在常用的中外互譯和英外互譯測試集Flores200、WMT25以及民漢語言的測試集中,Tencent-HY-MT1.5-1.8B全面超越Qwen3-32B等中等尺寸開源模型和主流商用翻譯API,達(dá)到Qwen3-235B-A22B等大尺寸閉源模型的90分位水平。
![]()
▲Flores200、WMT25以及民漢語言的測試集成績(來源:騰訊混元)
在翻譯質(zhì)量與響應(yīng)效率上,HY-MT1.5-1.8B模型在FLORES-200質(zhì)量評估中取得了約78%的分?jǐn)?shù),同時平均響應(yīng)時間僅為0.18秒,超越主流商用翻譯API。
![]()
▲FLORES-200質(zhì)量評估成績(來源:騰訊混元)
二、從醫(yī)學(xué)術(shù)語到粵語對話,騰訊混元翻譯模型1.5反應(yīng)迅捷、準(zhǔn)確率“能打”
憑借優(yōu)化的模型設(shè)計和推理邏輯,騰訊混元翻譯模型1.5適用于即時通訊、智能客服、移動翻譯應(yīng)用等高吞吐、實時翻譯場景。
首先是術(shù)語,騰訊混元翻譯模型1.5具備術(shù)語庫自定義能力,用戶可針對不同行業(yè)與專業(yè)場景(如醫(yī)學(xué)、法律、金融、科技等)提前構(gòu)建專屬術(shù)語對照表,確保關(guān)鍵術(shù)語在翻譯中保持高度一致與準(zhǔn)確性。
這一功能有效彌補了小尺寸模型在處理專業(yè)領(lǐng)域文本時的詞匯短板,使其在保障輕量化部署的同時,也能勝任高要求的行業(yè)翻譯任務(wù)。
用戶可通過簡單配置導(dǎo)入術(shù)語庫,模型將在翻譯過程中優(yōu)先采納用戶定義的標(biāo)準(zhǔn)術(shù)語,從而提升專業(yè)文檔、技術(shù)手冊、合同文本等內(nèi)容翻譯的可靠性與權(quán)威性。
▲術(shù)語翻譯(來源:騰訊混元)
智東西也上手嘗試了一下,我們上傳了一系列醫(yī)學(xué)術(shù)語,讓其翻譯成中文。在反應(yīng)速度上,騰訊混元翻譯模型1.5就很快輸出了翻譯結(jié)果,幾乎沒有反應(yīng)時間。與原文對照看,其翻譯的成果準(zhǔn)確度為100%。
![]()
▲術(shù)語翻譯(來源:智東西實測)
除了英語外,我們還上傳了5句職場中高頻出現(xiàn)的粵語對話,看看騰訊混元翻譯模型1.5的方言翻譯效果如何。結(jié)果顯示,騰訊混元翻譯模型1.5也可以很準(zhǔn)確地翻譯出粵語用詞和語氣,準(zhǔn)確度同樣“能打”。
![]()
▲粵語翻譯(來源:智東西實測)
其次是上下文翻譯能力。該能力適用于實時對話翻譯、長篇文獻翻譯及多輪交互場景。混元翻譯模型模型具備較好的長文本與對話上下文理解能力,可基于前文語境持續(xù)優(yōu)化后續(xù)翻譯結(jié)果,顯著提升長對話、多輪問答、連續(xù)段落等場景下的翻譯連貫性與一致性。
無論是會議記錄、訪談內(nèi)容、小說章節(jié)還是技術(shù)文檔的長篇翻譯,模型均能有效捕捉并保持上下文邏輯關(guān)系,避免出現(xiàn)指代不清、語義斷裂或風(fēng)格不統(tǒng)一的問題。
▲上下文翻譯(來源:騰訊混元)
第三是,帶格式翻譯能力,通過精準(zhǔn)的指令遵循能力,混元翻譯模型得以保持翻譯前后的格式信息不變,讓翻譯結(jié)果更加準(zhǔn)確實用。
▲格式翻譯(來源:騰訊混元)
為了直觀展示混元Tencent-HY-MT1.5-1.8B的翻譯效果,下面展示了與蘋果手機自帶離線翻譯的結(jié)果對比:
![]()
▲與蘋果自帶翻譯對比(來源:騰訊混元)
結(jié)語:騰訊開源降低了翻譯模型應(yīng)用門檻
騰訊此次開源的小尺寸翻譯模型,降低了翻譯模型在手機等終端上運行的門檻。
騰訊混元翻譯模型此前不僅在國際機器翻譯比賽拿下30個第1名,也在首次開源一周內(nèi)便登上Hugging Face模型趨勢榜第一位。
混元翻譯模型已經(jīng)在騰訊內(nèi)部多個業(yè)務(wù)場景落地應(yīng)用,包括騰訊會議、企業(yè)微信、QQ瀏覽器、客服翻譯等。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.