全球第一!騰訊混元翻譯模型Hunyuan-MT-7B登頂開源熱榜快訊
Shy-hunyuan-MT)拿下了全部 31個語種比賽中的30個第1名,騰訊混元Hunyuan-MT-7B模型也有卓越的效果表現(xiàn),混元翻譯模型Hunyuan-MT-7B登頂 Hugging Face模型趨勢榜第一位。
快科技9月7日消息,日前,騰訊混元宣布,混元翻譯模型Hunyuan-MT-7B登頂 Hugging Face模型趨勢榜第一位。
官方表示,該模型和混元世界模型家族最新成員HunyunWorld-Voyager一起,拿下前三中的兩席。
據(jù)了解,Hunyuan-MT-7B于9月1日開源,其總參數(shù)量僅7B,支持33個語種、5種民漢語言/方言互譯,是一個能力全面的輕量級翻譯模型。
在8月底結(jié)束的國際計算語言學(xué)協(xié)會(ACL)WMT2025比賽中,Hunyuan-MT-7B(參賽名稱:Shy-hunyuan-MT)拿下了全部 31個語種比賽中的30個第1名,處于絕對領(lǐng)先地位。
這31個語種除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。
騰訊混元表示,在業(yè)界常用的翻譯能力測評數(shù)據(jù)集Flores200上,騰訊混元Hunyuan-MT-7B模型也有卓越的效果表現(xiàn),明顯領(lǐng)先于同尺寸模型,與超大尺寸模型效果對比也不遜色。
針對翻譯場景,騰訊混元提出了一個完整的翻譯模型訓(xùn)練范式,覆蓋從預(yù)訓(xùn)練、到CPT再到監(jiān)督調(diào)參、翻譯強化和集成強化全鏈條,使得模型的翻譯效果達到業(yè)界最優(yōu)。
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。