機械翻譯

(由機翻跳轉過嚟)

機械翻譯粵音:gei1 haai6 faan1 jik6;英文machine translation,MT),或者叫機器翻譯,簡稱機翻,係運算語言學嘅一個子領域,專門研究點樣用電腦軟件嚟幫手翻譯一啲用自然語言寫嘅文​​「自然語言」係指好似廣東話同英文呢啲人類日常講嘢會用嘅語言[1][2][3][4][5]

Google 翻譯個嘜頭;Google 翻譯用咗機械翻譯嘅技術。

喺最基本嘅層次,機翻嘅做法可以係將一種語言嘅字直接換做目標語言當中「相應」嘅字,但現實係,靠呢種做法通常都唔會俾到理想嘅翻譯出嚟​​呢種做法得出嘅結果幾乎實要用人手執吓先至會靚。要翻譯得流暢,部機器要識得睇嗮成句句子,甚至乎係成段嘢,了解嗮當中每一個字嘅意思,先至決定俾啲乜嘢輸出好[6]。舉個簡單嘅例子嚟說明,以下有兩句英文句子:

句子 1:The thriller movie is disturbing.
句子 2:The noises he makes are disturbing me.

喺以上呢兩句句子裏面,講緊嘢嗰個人都用咗「disturbing」呢個現在分詞,但係呢個字要譯做粵文嘅話就起碼有兩個可能嘅意思:呢個字就噉睇可以譯做「令人不安」噉解,但係譯做「令人覺得佢煩」噉解又得[7],所以對於呢個字要點譯,就一定要睇嗮成句句子先可以做決定:句子 1 用「disturbing」嚟形容一套驚慄片,而句子 2 就用「disturbing」嚟形容某個人所發出嘅噪音。一般會認為喺前者嘅情況當中,「disturbing」比較可能係指「令人不安」,而喺後者嘅情況入面,呢個字就比較可能係指「令人覺得佢煩」。由呢個例子睇得出,一個字嘅意思可能會因為成句句子或者成段嘢當中嘅其他字而有所不同[1][8]。一個完善嘅機翻程式一定要識處理自然語言當中嘅呢類細微問題,而呢個過程通常要用到統計學同埋人工神經網絡等嘅技巧[1][2][9]

機翻技術好有潛質。自從 1950 年代嗰陣開始,學界對機翻經已有唔少嘅討論,當中有唔少相關領域嘅科學家都唔覺得機翻會有一日完全取代人手翻譯[10][11]。到咗廿一世紀,隨住機翻技術嘅進步,機翻經已成功噉俾人類廣泛噉用嚟幫手做翻譯,而喺某啲情況裏面,機翻俾出嚟嘅輸出仲可以直接​​即係唔使經人手執​​攞嚟用,好似係對天氣報告嘅翻譯就係噉樣[1]

基本定位

編輯
睇埋:語義

MT(粵拼em1 ti1)想做嘅係教電腦自然語言翻譯,將翻譯依樣工作自動化。响最抽象化(乜細節都唔諗)嘅層面,做翻譯嘅過程如下[12]

inputin1 put1):來源語言嘅一段字;
outputau1 put1):用目標語言表達(寫或者講出嚟)嘅一段字,依段 output 响意思上要同段 input 一樣;

依個過程就噉望落好似好簡單噉,但實際上幾難搞。到咗廿一世紀初,仲有好多語言係未有令人滿意嘅 MT 程式嘅。

首先,想像家吓要做 MT,要將以下嘅句子譯做粵文[13]

I am drinking the soup that mom made.
原則上應該譯做:我飲緊阿媽煲嘅湯。

直譯(direct translation)係最原始嗰隻做法,將 input 入面嘅或者短語遂隻遂隻變做目標語言入面「對應」嘅字同短語,然後畀 output:

I → 我,am drinking → 飲緊,the → 嗰,soup → 湯,that → 嗰個,mom → 阿媽,made → 整
Output:我飲緊嗰湯嗰個阿媽整。

​依段 output 明顯九唔答八

進一步啲諗可以用轉移式嘅做法,研究者可以考慮到「唔同語言喺文法上有差異」依一樣事實,例如唔同語言嘅語序可以好唔同,有啲語言​​好似係廣東話同英文​​興用 SVO 型嘅句子,而又有啲語言​​好似係日本話噉​​就興用 SOV 型嘅句子;另一方面,英文興將一句關係子句擺喺句嘢褦住嘅名詞後面(NRel),而相比之下,廣東話通常會將啲噉嘅子句褦喺隻名詞前面(RelN)[14],即係話

... the soup that mom made.
mom made阿媽整)係一句關係子句,描述緊 the soup啲湯);
阿媽整嘅湯喺廣東話度聽落會比較似自然嘅名詞短語

再進一步啲仲有所謂嘅中介語言(interlingual)做法,即係將 input 轉換做一啲淨係電腦識睇、形式化(簡化講,形式化 = 好似數學符號咁精確)噉表示句 input 嘅意思嘅符號(中介語言),再將段中介語言嘅字轉化做目標語言嘅 output [13]

由上述例子睇得出,要將源文段字嘅意思完全噉解讀嗮出嚟,個翻譯者實要分析嗮成段字嘅特徵[註 1]:依個過程要求個翻譯者要好詳細噉了解嗰隻語言嘅文法語義句法慣用語以至講嗰隻語言嗰班人嘅文化[註 2]。同一道理,翻譯者亦都要對隻目標語言有返咁上下認識[12]語音嘅 MT 就仲撈絞過文字嘅 MT,因為要考慮埋「個個人講嘢速度都唔同」等嘅問題。而 MT 依個領域最主要嘅挑戰就在於要寫程式教電腦學人噉做依樣嘢,而且出嘅 output 仲要望落同專業翻譯者做嘅冇分別[15]

資訊問題

編輯
内文:資訊

除咗打前提到嗰啲問題之外,MT 嘅另一個難處係轉換過程成日會搞到有資訊唔見咗。

翻譯(包埋人手做嘅翻譯)上,「段 input 字入面包含咗咩資訊」係一個重要考量。要正確噉將段 input 譯做 output,就首先要準確噉知道嗮 input 包含嘅資訊,但呢樣嘢查實唔容易,例如語境(包括講嘢嘅人嘅表情或者打前嘅句子)同埋歧義[註 3]等嘅情況,都會搞到電腦難以完全知道 input 內含嘅資訊。而且仲有個問題係淨係做翻譯嗰時至會撞到嘅:

翻譯分歧(translation divergence)[16][17]
唔同語言之間喺『啲句子包含咩資訊』同埋『啲資訊點組織』等方面有明顯嘅差異。

舉個實際例子,廣東話、英文同日本話喺代名詞嘅使用上有明顯差異:

  • 英文啲第三人稱代詞heshe)會分男女,但廣東話就唔會(男定女都一樣係),噉想像而家
    1. Input:She goes to the hospital.;呢句想譯做粵文 →
    2. Output:佢去醫院。
    3. 由於廣東話本身嘅特性,句粵文 output 唔包含「句子最頭嗰個,係女嘅」呢一件資訊,即係話由英文 input 變做粵文 output 嘅過程入面,有啲資訊唔見咗;如果研究者跟住叫部電腦將句粵文掉轉頭譯返做英文,就可能會變成 He goes to the hospital.​句嘢嘅意思走咗樣。
  • 日本話啲人稱代詞(尤其係)有相當複雜嘅變化,例如講自己嗰陣,boku(ぼく / 僕)同 ore(おれ / 俺)都係男性用嚟指自己嘅代名詞,但 ore 係比較粗魯嘅,喺正式場合用 ore 會畀人覺得好冇禮貌[18],噉想像而家
    1. Input:Ore wa shiraneena.俺は知らねえな。);呢句想譯做粵文 →
    2. Output:我唔知。[註 4]
    3. 由於廣東話本身嘅特性,句粵文 output 唔包含「句子最頭嗰個,係粗魯嘅男性我」噉嘅資訊(又係有資訊喪失),所以如果叫電腦將句粵文轉換返做日文,就可能會變成 Boku wa shiraneena.​因為 bokuore 帶有唔同嘅意思,所以呢種變化又係表示句嘢嘅意思走咗樣。

由上述嘅例子睇得出,做翻譯嗰陣成日會有某啲意思係「來源語言會分辨,但目標語言唔會分」嘅,例如英文會分男嘅佢女嘅佢,日本話會分有禮嘅男性我粗魯嘅男性我,而呢啲噉嘅分辨係廣東話唔會做嘅;同一道理,廣東話又有一啲概念區分,係第啲語言冇嘅,例如

  • 廣東話會分阿嫲阿婆,但英文日常用語通常都係用 grandmother 一隻字包嗮兩個概念;
  • 亦可以睇吓多謝唔該之間嘅差異[19]

噉就表示,翻譯嘅過程成日都會造成資訊喪失。

重要概念

編輯

有關「啲文字數據要點做事前處理」,可以睇吓 NLP 當中嘅文字分割詞形還原同埋解析

規則為本

編輯

規則為本機械翻譯(ruled-based machine translation,RBMT)可以話係最原始嗰隻 MT 做法,會運用對來源語言同目標語言嘅文法嘅認識同埋對兩隻語言嘅語義嘅分析。基本個諗頭係要運用對來源語言嘅分析,將 input 句嘢嘅結構同 output 句嘢嘅結構連繫埋一齊,再產生一句 output 句子[20]。例如以下呢段翻譯噉:

Input(法文):Une fille mange une pomme.
目標語言:廣東話

RBMT 會搵本字典,同 input 句每隻字都搵隻粵文嘅字對應(睇埋雙文本字對應):

Une → 一個(陰柔),fille → 女仔,mange → 食(第一或者第三人身),une → 一個(陰柔),pomme → 蘋果

跟住 RBMT 就會分析法文同廣東話分別嘅造句法則(可以睇吓語序等嘅概念),再攞住啲對應字、跟廣東話嘅造句法則砌返句 output 出嚟,最後就畀出:

一個女仔食一個蘋果。

不過廿世紀嘅研究已經表明咗 RBMT 根本唔掂:要靠 RBMT 做翻譯,就實要明文噉將兩隻語言內含嘅規則列嗮出嚟,但噉做有好多問題:

  1. 自然語言呢家嘢複雜度高得好交關,淨係講「英文啲詞句要點組成」嘅規則就已經講緊最少有幾百條[21]
  2. 語言有陣時有好多不成文嘅規定(語用),例如好多人會覺得「某某食某樣嘢」喺廣東話入面聽落有啲怪​​描述動作嗰陣,廣東話比較常會講「某某喺度食某樣嘢」或者「某某食咗某樣嘢」,但係呢條係不成文嘅規則;
  3. 語言會有歧義,同一隻字有時可能有多個唔同意思,吓吓都要人手噉講清楚「咩情況下譯做意思 1 咩情況下譯做意思 2」又係好撈絞;
  4. 語言可能會演變,吓吓要人手噉更新啲規則不切實際;

... 等等。因為呢啲緣故,RBMT 限制多得滯,喺好多情況之下都行唔通。

統計為本

編輯

統計機械翻譯(statistical machine translation;SMT)就係嘗試用統計學嘅方法嚟做 MT [22][23]。簡單噉講,可以首先諗吓字詞層面嘅翻譯:

  • 想像研究者手上有一大拃語料[註 5],啲語料包含咗(例如)由隻語言寫出嚟嘅文,仲講明嗮邊句粵文句子對應緊邊句法文句子;
  • 個 MT 程式想知 pomme 呢隻法文嘅字(input)要點譯做廣東話;
  • 佢可以摷勻嗮啲語料,睇吓啲有隻 pomme 字嘅法文句子,佢哋對應嗰啲粵文句子有咩共通點;
  • 假設啲粵文句子夠代表到「好多唔同意思但都有提到蘋果」嘅句子,個程式應該會發現啲對應嘅粵文句子冚唪唥都有蘋果呢隻字詞喺入面;

個 MT 程式可以畀蘋果做 output​​SMT 嘅重點就係在於想由啲語料度搵出啲字詞之間嘅(例:已知句嘢入面有蘋果呢隻字詞,句嘢有幾大機率會有呢隻字詞?),靠呢啲統計關係嚟做「呢隻呢隻字應該點譯」嘅判斷。有關統計關係嘅概念,可以睇吓概率論統計學等嘅課題。

呢種機翻嘅原理係揾一大柞事先人手翻譯咗嘅兩種語言嘅句子返嚟做樣本,再寫啲程式去教部電腦揾出唔同字之間嘅統計關係。舉個例說明:如果部電腦撞到一句英文句子入面有「disturbing」呢個字,噉佢會嘗試透過啲樣本嚟計吓個字應該譯做「令人不安」嘅機會率係幾多幾多,同埋呢個機會率會點樣隨住「句句子入面仲有乜嘢字」變化(如果個字俾寫嘢嗰個人用嚟形容一套驚慄片,噉應該譯做「令人不安」嘅機會率就會高啲)。喺部電腦處理完個樣本之後,佢內部會產生一個統計模型,而呢個統計模型嗰柞參數會由個樣本嗰度導出[24]。一般嚟講,個樣本愈大,統計機翻嘅準確性就愈高[25]。到咗廿一世紀,世界上有多個政府都興用呢種手法翻譯佢哋啲文件,例如加拿大嘅聯邦政府就用咗呢種方法同佢啲文件做英(佢嗰兩個官方語言)翻譯[26],而且 Google 翻譯都有用咗呢種手法[27]

統計機翻相當受歡迎,有唔少科學家都想進一步發展佢,甚至有人提倡話再進步啲嘅統計機翻能夠淨係用一種語言嘅樣本就可以做到機翻[28]

混合型

編輯

混合型機械翻譯(hybrid machine translation;HMT)係指運用多過一種手法做機翻嘅方法[29]。有多個做機翻方面工作嘅組織都興結合基於規則方法同統計方法嚟做機翻,而佢哋主要有兩大做法:

  • 用統計處理過嘅規則(rules post-processed by statistics):個程式會用明文規則嚟做翻譯,但係啲規則唔係由個程式員指定嘅,而係由個程式自己由數據嗰度推論出嚟嘅。
  • 用規則引導統計(statistics guided by rules):個程式會用(好多時由語言學嗰度學到嘅)明文規則引導統計,亦都會用規則及後處理統計翻譯所俾嘅結果。呢種做法喺做翻譯嗰陣有大好多嘅彈性同控制,而且仲俾個設計者有得控制個程式喺翻譯前後點樣處理段文字嘅內容。

神經

編輯

神經機械翻譯(neural machine translation;NMT)係廿一世紀初興起嘅一種機翻手法,連 Google 都開始用神經機翻取代舊陣時嗰啲機翻方法[30]。神經機翻係指運用人工神經網絡(artificial neural network)嚟做機翻。人工神經網絡係一種特殊嘅電腦程式,會攞一啲特定嘅輸入,再靠一大柞​​閒閒地數以百計嘅​​人工神經細胞做運算,每一粒人工神經細胞都會按照佢由第啲神經細胞嗰度收到嘅輸入運算一個輸出數值,最後俾出一個運算結果。如果有一個極龐大​​有數以萬計嘅神經細胞​​嘅人工神經網絡嘅輸入設做(例如)一篇來源語言嘅文章,而輸出設做目標語言嘅譯文,就有可能做到機翻[31][32][33][34]

中介語言

編輯
睇埋:心靈話加密

評估機翻

編輯
 
2008 年影到雲南一角嘅英文翻譯
任何一個識英文嘅人:「... 我覺得佢哋實係用咗機翻。」(明顯通過唔到流暢測試)

「評估一個 MT 程式嘅 output」係 MT 上一項重要嘅工序:無論係邊門工程學都好,研究者喺設計一件嘢嗰陣都實要評估件嘢「有幾掂」,件嘢解決問題嘅能力要有返咁上下勁,先至可以攞去出街當產品噉賣。不過 MT 評估一啲都唔易做​​首先,翻譯呢家嘢有啲主觀,一位專家覺得掂嘅翻譯,另一位專家可能會覺得唔掂;除此之外,同一句句子要譯做第隻語言,好多時會有多過一個可能嘅譯法,而且兩個譯法都係普遍覺得可以接受嘅[35]

喺決定「要點樣做評估」嗰陣,研究者有唔少嘢要考慮:

  • 評估單位要係句子(sentence-level)定係成份文件(document-level)?如果話「用句子做評估單位」,意思係指研究者會將啲句子逐句逐句攞嚟睇,睇吓係咪句句都「譯得靚」,而如果話「用成份文件做評估單位」,意思係指研究者會一吓過睇嗮成段字,即係會諗埋「某啲語言,可能會慣例上將某啲類嘅句子擺喺段落最頭」噉嘅問題[36]
  • 夠掂同流暢(adequacy and fluency):呢個概念係講緊「評估重心要係語義定係句法?」噉嘅問題[37]
    • 「評估重點係語義」(夠掂)意思係指,研究者睇重嘅係要將句嘢包含嘅意思全部 output 好佢,而
    • 「評估重點係句法」(流暢)意思係指,研究者想個 MT 程式出到嘅 output 要「好似一個能夠流暢使用目標語言嘅人」噉,
    • 如果有句 output 係「以目標語言做母語嘅人 get1 到想講乜,但文法唔係好啱」嘅,追求「夠掂」嘅研究者會接受,而追求「流暢」嘅研究者就唔會。

... 呀噉。

人手評估

編輯

用人手嚟評估 MT 系統嘅做法如下。

首先,研究者要搵一大班人返嚟做評判,評判一定要係識目標語言又識來源語言嘅。喺實際應用上,評判好多時仲會係對翻譯起碼有啲認識嘅人[註 6]

假定而家有 5 個英到粵 MT 系統要評估,研究者會要求啲評判坐定定喺部電腦前面,電腦嘅熒幕會顯示類似噉嘅字[35]

來源句子:"The vault to which I refer is of ancient granite." [38]
對照粵譯:「我講緊嘅嗰個暗窖係用古老嘅麻石造嘅。」

唔該同以下嘅譯法排先後,表示啲譯法邊個最好邊個最差,最好嘅排先,最差嘅排後[註 7]

譯法 1:「我提到嗰個暗窖係由遠古麻石造嘅。」
譯法 2:「我講嘅嗰個暗窖係用古老麻石起嘅。」
譯法 3:「我講嗰個暗窖係用古老麻石起出嚟嘅。」
譯法 4:「我講嘅嗰一個暗窖係用古老麻石起出嚟嘅。」
譯法 5:「我提到嘅嗰個暗窖係用古麻石砌出嚟嘅。」

可以用下面嘅空間畀答案。

...

​當中嗰 5 個譯法,就係 5 個 MT 系統分別出嘅 output。正常嚟講,啲 output 嘅出現次序係隨機化嘅,即係唔會(例如)其中一個系統出嘅 output 永遠擺喺「譯法 1」嗰個位,費事「句子出現嘅次序」對研究結果造成干擾

研究者會重複噉要評判睇好似上面噉嘅問題,可能睇成幾千次。搞掂之後,研究者手上就會有一拃數據,啲數據會(簡化噉講)包含「每一句 input,嗰 5 個系統平均喺嗰句 input 上得到幾高嘅名次」噉嘅資訊[註 8],跟住研究者就有得睇吓「邊個系統傾向攞到高嘅名次」[註 9]​名次傾向高嗰個 MT 系統,就算係「最掂」[35][39]

自動評估

編輯
内文:BLEUN-gram

靠人手嚟評 MT 系統有一大唔好處,就係又貴又慢:要搵「識來源語言又識目標語言、仲對翻譯有啲認識」嘅人唔容易,而請呢啲人幫手評 MT 系統就要使錢;除此之外,要請人睇成數以千計嘅 output 句子,實會花好多時間[40]。因為噉,有啲 MT 研究者就想採用自動化嘅 MT 評估,簡單噉講即係諗啲數出嚟畀電腦計,部電腦會攞個 MT 系統出嘅字做 input,再根據嗰啲計法計若干個數值出嚟,呢啲數值會反映個系統嘅翻譯「質素有幾高」。

當中雙語替換評測(bilingual evaluation understudy,BLEU)可以話係廿一世紀初最常用嗰隻自動評估做法[註 10][註 11][41]。首先,BLEU 建基於一個諗頭[42]

攞住一段由專家做嘅翻譯(對照翻譯),一個質素高嘅 MT 系統出嘅 output 理應會有返咁上下似對照翻譯。

用 BLEU 做評估,步驟大致上係噉嘅[42][43]

  1. 攞住
    • 一句 input 句子、
    • 若干句對照翻譯   [註 12]、同埋
    • 由被評系統對句嘢畀嘅 output( )。
  2. 計吓   入面嘅字,有幾多 % 係有喺   裏面出現嘅[註 13]
    • 步驟 2 得出嘅數,唔可以用嚟做評估,例如  貓貓貓貓,而  隻貓瞓緊  喺步驟 2 會攞到高分,但   明顯唔係一個好嘅翻譯。
  3. Foreach   入面嘅字,計吓佢喺   裏面最多出現咗幾多次( )。
    • 例如  貓貓貓貓 隻貓瞓緊 隻貓喺度瞓一字喺   當中最多出現咗 1 次​ 
  4. 1-gram 準確度分數  
  5. 重複 2 同 3 噉嘅步驟,不過用嘅係 2-gram3-gram... 等等。可以睇吓 N-gram 呢個概念。
  6. 短得滯嘅  「要受罰」,
    •   做對照嘅長度而    嘅長度,如果  ,個系統就要受罰扣分;
    • 喺最基本嗰種計法下,要扣嘅分數  ,當中  自然底數
  7. 重複到(例如)4-gram 之後,用幾何平均值計吓個系統平均攞到幾高分,分數愈高就表示個系統愈掂。

亦都有啲做法係用機械學習,教電腦自動噉分「咩係優質嘅翻譯,咩係劣質嘅翻譯」。

機翻本體

編輯

手語機翻

編輯

應用

編輯

機翻史

編輯

機械翻譯嘅意見可能會搵返去喺十七世紀度。喺1629年, René Descartes 建議整個普及嘅語言同啲相關嘅意見喺唔同嘅發音分享一個標誌。「機械翻譯」個區入面所出現嘅會喺Warren Weaver備忘錄嘅翻譯度 (1949年). 第一個搜索嘅人喺個區入面係 Yehosha Bar-Hillel, 佢開始去進行佢嘅搜索喺MIT 嗰度(1951年)。搜索者繼續咁樣去加入個區域機械翻譯同電腦性共同語嘅組織邊個係喺美國度組成嘅 (1962年)。1972年,佢畀保護性搜索同工程總監(簡稱DDR&E)寫報告, 全面MT嘅可能性已經重新再建立嘅由啲成功嘅MT系統喺翻緊譯軍用手册轉成越南文當打緊仗嘅時候。

評價

編輯

翻譯界,機械翻譯一直都好受爭議,原因係機械翻譯要做後編嘅工序,但係事後執手尾用嘅時間可能同自己成篇譯過冇分別,但係因為理論上機器已經譯咗,翻譯社畀嘅錢會少過正常。另外,有翻譯人員指機械翻譯令人嘅思維框死咗思路,翻譯社甚至會要求儘量保留原字,令譯得唔好嘅文想執都冇辦法執得好。

有翻譯人員指出,現代機械翻譯係喺唔問原作者嘅情形之下,攞咗人譯嘅文去教人工神經網絡點譯,其實係一種知識產權嘅盗竊行為。

睇埋

編輯

註釋

編輯
  1. 可以睇埋複合原理創發嘅概念。
  2. 最理想嘅係要諗埋語境等嘅語用資訊,但 input 好多時唔包含依啲資訊。
  3. 有關歧義要點樣應付,可以睇吓詞義消歧
  4. 如果要強調返「原句喺語氣上有啲粗魯」呢樣嘢,可以考慮吓譯做:我點鬼樣知。
  5. 喺實際應用上,講緊係閒閒哋幾百萬字咁多。
  6. 因為噉,「請評判返嚟幫手評估 MT」要使相當多嘅錢。
  7. 亦都有啲研究者係叫評判同每個譯法畀個分數,分數表示個譯法「有幾好」。
  8. 正常嚟講,研究者仲會睇埋評分者間信度
  9. 技術性啲講,亦可以用 TrueSkill 呢隻演算法嚟分析。
  10. 研究仲指,BLEU 嘅判斷同人類專家做嘅判斷,有強烈嘅正統計相關
  11. 事實係 MT 界主流認為,「同人手評估攞到嘅結果有強嘅正相關」係自動 MT 評估法嘅理想特徵。如果有研究者諗咗隻新嘅自動 MT 評估法出嚟,會去睇吓呢隻方法同人手評嘅結果吻唔吻合
  12. 呢啲對照可以係嚟自語料庫嘅。
  13. 喺呢度,「同義詞要點處理」係條大問題。

參考同工具

編輯

基礎知識

編輯

日本

編輯

20世紀80年代末,日本文部省大藏省都極力主張大搞人工智能同機器譯,並由野村研究所專門負責協調各項MT技術研究。搞出好多款實用嘅MT軟體,以下為有代表性嘅幾款。

經典書籍

編輯

Hutchins, W. John (1992)。械翻譯導論 —— An Introduction to Machine Translation。London:Academic Press。ISBN 0-12-362830-X {{cite book}}: Unknown parameter |coauthors= ignored (|author= suggested) (help)

  • 機械翻譯文獻網 —— 該網址由以上同一作者維護,An electronic repository (and bibliography) of articles, books and papers in the field of machine translation and computer-based translation technology

機翻引擎

編輯
  1. 1.0 1.1 1.2 1.3 Brown, P. F., Cocke, J., Pietra, S. A. D., Pietra, V. J. D., Jelinek, F., Lafferty, J. D., ... & Roossin, P. S. (1990). A statistical approach to machine translation. Computational linguistics, 16(2), 79-85.
  2. 2.0 2.1 Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473.
  3. Somers, H. (1999). Example-based machine translation. Machine translation, 14(2), 113-157.
  4. Machine Translation | SYSTRAN Technologies.
  5. Dare, M., Diaz, V. F., So, A. H. Z., Wang, Y., & Zhang, S. (2023). Unsupervised Mandarin-Cantonese Machine Translation (PDF). arXiv preprint arXiv:2301.03971.
  6. Albat, Thomas Fritz. "Systems and Methods for Automatically Estimating a Translation Time." US Patent 0185235, 19 July 2012.
  7. Definition of 'disturbing'. Collins English Dictionary.
  8. Importance of Context in Translation 互聯網檔案館歸檔,歸檔日期2021年1月26號,..
  9. Mikolov, T., Karafiát, M., Burget, L., Černocký, J., & Khudanpur, S. (2010). Recurrent neural network based language model. In Eleventh annual conference of the international speech communication association.
  10. Yehoshua Bar-Hillel (1964). Language and Information: Selected Essays on Their Theory and Application. Reading, MA: Addison-Wesley. pp. 174–179.
  11. "Madsen, Mathias: The Limits of Machine Translation (2010)". Docs.google.com.
  12. 12.0 12.1 Kelly, Nataly; Zetzsche, Jost (2012). Found in Translation: How Language Shapes Our Lives and Transforms the World. TarcherPerigee.
  13. 13.0 13.1 Bateman, J. A. (1992). Towards Meaning-Based Machine Translation: using abstractions from text generation for preserving meaning. Machine translation, 7, 5-40.
  14. Chan, A., Matthews, S., Tse, N., Lam, A., Chang, F., & Kidd, E. (2021). Revisiting Subject-Object Asymmetry in the Production of Cantonese Relative Clauses: Evidence From Elicited Production in 3-Year-Olds. Frontiers in Psychology, 5738.
  15. Gutt, E. A. (2014). Translation and relevance: Cognition and context. Routledge.
  16. Dorr, B. (1994). Machine translation divergences: A formal description and proposed solution (PDF). Computational linguistics, 20(4), 597-633.
  17. Deng, D., & Xue, N. (2017). Translation divergences in chinese-english machine translation: An empirical investigation. Computational Linguistics, 43(3), 521-565.
  18. Miyazaki, A. (2004). Japanese junior high school girls’ and boys’ first-person pronoun use and their social world. Japanese language, gender, and ideology: Cultural models and real people, 256-274.
  19. These eight Cantonese concepts are virtually impossible to translate into English. Honeycombers,呢篇文提到 8 隻難以譯做英文嘅廣東話字詞​唔該 vs 多謝肉緊收兵捩咁棄... 呀噉。
  20. Nirenburg, Sergei (1989). "Knowledge-Based Machine Translation". Machine Trandation 4 (1989), 5-24. Kluwer Academic Publishers.
  21. Hartwell, P. (1985). Grammar, grammars, and the teaching of grammar. College English, 47(2), 105-127.
  22. Brown, P. F., Cocke, J., Della Pietra, S. A., Della Pietra, V. J., Jelinek, F., Mercer, R. L., & Roossin, P. (1988). A statistical approach to language translation (PDF). In Coling Budapest 1988 Volume 1: International Conference on Computational Linguistics.
  23. Och, F. J., & Ney, H. (2003). A systematic comparison of various statistical alignment models. Computational linguistics, 29(1), 19-51.
  24. Philipp Koehn (2009). Statistical Machine Translation. Cambridge University Press. p. 27. ISBN 0521874157. Retrieved 22 March 2015. Statistical machine translation is related to other data-driven methods in machine translation, such as the earlier work on example-based machine translation. Contrast this to systems that are based on hand-crafted rules.
  25. "Inside Google Translate – Google Translate".
  26. Hoy, Claire. Nice Work: The Continuing Scandal of Canada's Senate, p. 165.
  27. "Google Translator: The Universal Language". Blog.outer-court.com.
  28. Tambouratzis, G., Sofianopoulos, S., & Vassiliou, M. (2013). Language-independent hybrid MT with PRESEMT. In Proceedings of the Second Workshop on Hybrid Approaches to Translation (pp. 123-130).
  29. Adam Boretz. "Boretz, Adam, "AppTek Launches Hybrid Machine Translation Software" SpeechTechMag.com (posted 2 MAR 2009)". Speechtechmag.com.
  30. Google's neural network learns to translate languages it hasn't been trained on.
  31. EU Spends EUR 1.9m to Customize MT for State and Regional Authorities.
  32. KantanMT Users Can Now Customise and Deploy Neural Machine Translation Engines.
  33. Omniscien Technologies Announces Release of Language Studio™ with Next-Generation NMT Technology.
  34. SDL Adds Neural Machine Translation to Its Enterprise Translation Server.
  35. 35.0 35.1 35.2 Bojar, O., Chatterjee, R., Federmann, C., Graham, Y., Haddow, B., Huck, M., ... & Zampieri, M. (2016, August). Findings of the 2016 conference on machine translation (PDF). In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers (pp. 131-198).
  36. Liu, S., & Zhang, X. (2020, May). Corpora for document-level neural machine translation. In Proceedings of the 12th Language Resources and Evaluation Conference (pp. 3775-3781).
  37. Banchs, R. E., D'Haro, L. F., & Li, H. (2015). Adequacy-fluency metrics: Evaluating mt in the continuous space model framework. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 23(3), 472-482.
  38. 句嘢出自 1922 年 H. P. Lovecraft 短篇小說 The Tomb
  39. Graham, Y. (2013). Continuous measurement scales in human evaluation of machine translation. Association for Computational Linguistics.
  40. Hovy, E. H. (1999). Toward finely differentiated evaluation metrics for machine translation. In Proceedings of the EAGLES Workshop on Standards and Evaluation Pisa, Italy, 1999.
  41. Bojar, O., Graham, Y., Kamran, A., & Stanojević, M. (2016, August). Results of the wmt16 metrics shared task. In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers (pp. 199-231).
  42. 42.0 42.1 Papineni, K., Roukos, S., Ward, T., & Zhu, W. J. (2002, July). Bleu: a method for automatic evaluation of machine translation (PDF). In Proceedings of the 40th annual meeting of the Association for Computational Linguistics (pp. 311-318).
  43. Callison-Burch, C., Osborne, M. and Koehn, P. (2006) "Re-evaluating the Role of BLEU in Machine Translation Research" in 11th Conference of the European Chapter of the Association for Computational Linguistics: EACL 2006. pp. 249-256.