日本翻訳連盟(JTF)

3-F ニューラル機械翻訳は翻訳プロセスをどう変えていくか-最近の機械翻訳技術と利用に関する動向-

中岩 浩巳 Nakaiwa Hiromi

アジア太平洋機械翻訳協会会長、名古屋大学特任教授。1987年名古屋大学大学院工学研究科博士前期課程修了、2002年名古屋大学博士(工学)。1987年日本電信電話(株)(NTT)入社、英マンチェスター大学客員研究員(1995~1996年)、国際電気通信基礎技術研究所(ATR)研究室長(2002~2004年)を経て、2014年NTT退職。現在、名古屋大学大学院情報学研究科特任教授。NTT入社以来、機械翻訳の研究開発に従事。言語処理学会会長(2012~2014年)、アジア太平洋機械翻訳協会(AAMT)会長(2012年~)、国際機械翻訳協会(IAMT)会長(2015~2017年)、日本翻訳連盟監事(2014年~)。

長瀬 友樹 Nagase Tomoki

(株)富士通研究所 人工知能研究所 主管研究員。アジア太平洋機械翻訳協会(AAMT)機械翻訳課題調査委員会委員長。1987年富士通(株)入社。機械翻訳システムATLASの開発リーダとして勤務。2004年より(株)富士通研究所にて、自然言語処理、多言語情報検索、音声機械翻訳等の開発に従事。2009年よりAAMT機械翻訳課題調査委員会委員長。


報告者:島津美和子(東芝デジタルソリューションズ(株))
 



 本講演では、機械翻訳(MT)の研究開発に長年携わってきた二人が、昨今の急速な環境の変化の下でのMTの最新技術動向とMTの性能比較結果について、今年開催された国際会議(MT Summit XVI、EAMT2017)の発表内容も交え、話題のニューラル機械翻訳(NMT)を中心に、分かりやすく解説した。

機械翻訳(MT)を取り巻く状況(中岩氏)

 日本におけるここ数年の変化は、翻訳需要に拍車をかけ、MT技術に対する注目度を高めている。背景には、急速な少子高齢化とグローバル化の進展により、日本産業の海外依存度が増し、国際ビジネスにおける翻訳場面が増大したことがある。訪日外国人数の増大と2020年の東京オリンピック・パラリンピック開催により、今や外国人とのコミュニケーションは不可欠になっている。一方、Google翻訳をはじめとする深層学習技術に基づくニューラル機械翻訳(NMT)技術の導入により、従来のMTでは難しいとされてきた言語対の翻訳品質が大幅に改善し1、MTの利用に対する期待が世界的に高まっている2

ニューラル機械翻訳(NMT)とは(中岩氏)

 MT方式は、専門家が作成したルールに基づいて翻訳を行うルールベース方式(RBMT)、蓄積された対訳データを分析・学習した結果からモデルを作成し、このモデルに基づいて翻訳を行うコーパスベース方式に大別される。後者は統計的機械翻訳(SMT)とニューラル機械翻訳(NMT)に代表される。RBMTは一定品質の翻訳を保ち、辞書・規則によるカスタマイズが容易であるが、対象言語ごとに専門家が必要である。また、訳抜けや訳余りが起きにくい反面、訳文はぎごちない。コーパスベース方式は、モデルを自動で学習し、多言語化が容易であるが、最低100万文の大量データを必要とする。このモデルは権利関係が不明確という難点もある。
 NMT以前のSMTでは、対訳データに基づいて句レベルの対訳辞書を自動的に学習し、最も確率の高いものを選択する。語順が異なる言語対では句の並び替えを行うが、この失敗がSMTの問題となっていた。そこで登場したのがNMTである。
 NMTの背景には1980年代にブームとなったニューラルネットワーク(NN)が2010年代復活したことがある。計算機能力の急激な普及とアルゴリズムの改良により、大規模なNNを使った技術が実装可能になった。NNの自然言語処理での効果は当初限定的であったが、数年前からMTにも導入され、SMTを凌駕する性能を達成した。2016年11月にはGoogleがNMTのサービスを開始し、一般の人々がその性能を身近に体感できるようになり、大きなインパクトをもたらした。
 ではNMTとSMTの違いは何か。NMTは句ではなく文全体の情報を用いて翻訳する。まず、NNを通じて原言語を意味解析し、数値的な意味表現に置き換える。そしてNNを使ってその意味表現から単語を生成し、目的言語を出力する。この中間的な意味表現は二次元ベクトルの形である。NMTはリカレントニューラルネットワーク(RNN)を使う。RNNは、入力、出力、入力ベクトルに対し重みづきの演算を行った結果得られる複数の中間層に加え、一つ前の時間の情報を入力としてフィードバックし、時系列のベクトルの情報を継承する点に特徴がある3。処理は次のように進む。最初に原文の各単語がNNに入り、それをあるベクトルにエンコードした後、ベクトルをもとに隠れ層(中間層)というニューラルの活性情報に変換する。次に、RNNにより、新しい単語の情報と一つ前の単語の情報を使い、新しい意味の情報を得る。最終段階で原文に対する意味表現を保持し、この意味をもつ目的言語の単語を次々と生成(デコード)していく。
 Google翻訳の技術はアテンション機構を持つ。アテンションに基づくNMTでは、入力文の情報をベクトルに変換した後、どの単語に注目(アテンション)するかを一出力ごとに計算し、最も高い注目度の単語の情報を使う4。アテンション機構はNMTで標準的に使用されている。
 MTの人手評価の例としてATRの基準は訳文の自然さを見る流暢さ(fluency)と原文の意味を訳文に伝えているかを見る適切性(adequacy)の2軸で5段階評価する。自動評価には世界的に使われているBLEU(機械訳と参照訳のn-gramの一致度を両者の文長の違いも考慮し、計算する手法)の他RIBES(機械訳と参照訳の語順の違いを重視する手法)がある。

機械翻訳技術及び活用方法の動向(中岩氏・長瀬氏)

 第20回ヨーロッパ機械翻訳協会年次大会(EAMT2017)(2017年5月)5ではMTの研究開発及び活用の最先端の事例が紹介された。ここではNMTの活用と評価を概観する。性能評価では、新聞記事、e-commerce、MOOCsにおいてNMTが従来方法を上回る結果が報告された。MTのエラー分析結果に基づいて流暢さと適切性を評価するMultidimensional Quality Metricsの報告では、NMTは適切性のうち訳漏れの数は最大だが、誤訳の数はSMTの一種である従来のフレーズベース機械翻訳(PBMT)よりも少なく、流暢さは全項目で上回ることが確認された。SMTでは効果のあった事前並び替えをNMTに適用した結果、効果がみられなかったという指摘もあった。カスタマイズなしのNMTとカスタマイズしたPBMTの比較では、単語については後者が上回ったものの、全体的にはNMTの方がよいとの結果も示された。
 MT Summit XVI (2017年9月、於:名古屋大学)に関しては、NMTの主要3社が現状と今後の方向性について語った招待講演"Neural translation technologies and futures—Baidu, Google, Microsoft"に限定して述べる。Baiduは、SMTの特徴を使ってNMTの精度向上を図るとともに、Multi-Task Learningにより原言語の単語表現の学習効果及び運用効率を改善した。GoogleはWeb上の文を英語に機械翻訳し、一致する文を抽出して大規模パラレルコーパスを作成している。これを用いて、複数言語対を同時に学習させ(Multi-Task Learning)一つのモデルを構築することにより、データが存在しない言語対の翻訳(zero-shot translation)を可能にした。音声自動翻訳にフォーカスしたMicrosoftの発表では、課題として話し言葉は書き言葉と異なること、人の発話は秩序だっていないこと、句読点が発話されないこと、会話データが少ないことを挙げた。

NMTの訳文評価(長瀬氏)

 AAMTが日英・英日・中日方向でNMT、RBMT、SMTの訳文品質を評価したところ、全言語方向の定量評価においてNMTが最も優れていた。定性評価ではNMTの長所・短所、すなわち、訳語選択が正確で、訳文が自然で、並列句の認識に優れ、主語なし文もうまく翻訳する一方、訳抜け、過剰訳出、低頻度語の誤訳が起きやすいことを確認した。文書別にみるとNMTは特許の翻訳精度が突出してよかった。
一方、運用面のNMTの問題として、従来方式に比較して多くの学習時間や計算資源が必要であることを挙げた。また、原文と訳文の単語対応が取りにくいこともNMTのデメリットである。

問題提起(長瀬氏)

締めくくりに、NMTとRBMTの英語原文と日本語訳文を示し、直訳のRBMTと意訳のNMTのどちらが有用と考えるかをフロアに問うたところ、ほぼ同数という興味深い結果が出た。これについては今後議論を深めていく必要がある。
 

  1. https://research.googleblog.com/2016/09/a-neural-network-for-machine.html
  2. Castilho, S., et al. (2017). Is neural machine translation the new state of the art? EAMT2017 https://ufal.mff.cuni.cz/eamt2017/slides/Wednesday/Research_presentations/Castilho_et_al.pdf, p. 4
  3. https://www.slideshare.net/YusukeOda1/encoderdecoder-tis, p. 7
  4. https://www.slideshare.net/ToshiakiNakazawa/attentionbased-nmt-description, p. 1, p. 3
  5. https://ufal.mff.cuni.cz/eamt2017/

共有