微軟剛剛宣布了自家翻譯服務(wù)的一項(xiàng)更新,為用戶引入了新的機(jī)器學(xué)習(xí)技術(shù),有望顯著改善多語(yǔ)種之間的翻譯質(zhì)量。 具體說(shuō)來(lái)是,基于“備用專家混合”(spare Mixture of Experts)方案的 Project Z-Code 項(xiàng)目,可讓新模型在盲測(cè)評(píng)估中的得分較以往提升 3~15% 。
(來(lái)自:Microsoft Research Blog )
據(jù)悉,Z-code 是微軟更廣泛的 XYZ-Code 計(jì)劃的一部分,著眼于結(jié)合多種語(yǔ)言的文本、視覺(jué)和音頻模型,以創(chuàng)建更強(qiáng)大、實(shí)用的 AI 系統(tǒng)。
雖然“專家組合”并不是一套新穎的技術(shù),但它在翻譯環(huán)境中還是相當(dāng)實(shí)用。該系統(tǒng)的核心,本質(zhì)上是將任務(wù)分解為多個(gè)子任務(wù),然后將之委托給更小、更專業(yè)的所謂“專家”模型。
Z-code MoE 模型示例:從英語(yǔ)翻譯成法語(yǔ)時(shí),可為每個(gè)輸入動(dòng)態(tài)選擇其參數(shù)的子集。
各個(gè)模型會(huì)根據(jù)自身特性來(lái)預(yù)測(cè)、并決定將哪個(gè)任務(wù)委派給哪個(gè)專家,從而極大地簡(jiǎn)化了開(kāi)發(fā)思路。對(duì)于普通用戶來(lái)說(shuō),你可將之視作包含多個(gè)更專業(yè)模型的大模型集合。
微軟技術(shù)研究員兼 Azure AI 首席技術(shù)官黃學(xué)東表示:借助 Z-code,我們確實(shí)取得了驚人的進(jìn)步。我們正在利用遷移學(xué)習(xí)和多任務(wù)學(xué)習(xí),以從單語(yǔ)言和多語(yǔ)種數(shù)據(jù)中創(chuàng)建一個(gè)極具質(zhì)量和性能的最佳組合。最終帶來(lái)一個(gè)最先進(jìn)的語(yǔ)言模型,并為客戶帶來(lái)高效的體驗(yàn)。
結(jié)果是,我們看到了一套全新的系統(tǒng),現(xiàn)能夠直接在 10 種語(yǔ)言之間進(jìn)行翻譯,從而消除了對(duì)多個(gè)系統(tǒng)的需求。
【來(lái)源:cnBeta.COM】




