日本翻訳連盟(JTF)

未来の翻訳研究に関するワークショップ・参加レポート

未来の翻訳研究に関するワークショップ・参加レポート

河野弘毅
日本翻訳ジャーナル編集委員

 



名称●未来の翻訳研究に関するワークショップ Workshop on Future Directions in Translation Resaerch (WFDTR 2012)
期間●2012年12月 3日(月)~4日(火)
会場●東大寺総合文化センター
詳細●http://www.mastar.jp/wfdtr/index.html
主催●CBS(Copenhagen Business School、デンマーク)NICT(情報通信研究機構、日本)
参考●主宰団体のウェブサイト NICT(情報通信研究機構)- MLTL(多言語翻訳研究室) http://www2.nict.go.jp/univ-com/multi_trans/

 


 
独立行政法人情報通信研究機構(以下NICT)は日本を代表する機械翻訳の研究機関であるが、そのNICTがCopenhagen Business Schoolとの共同研究の一環として、12月はじめに「未来の翻訳研究に関するワークショップ」と題して開催したシンポジウムを聴講したのでここにレポートする。

二日間にわたったシンポジウムのプログラムはホームページから入手できる。研究者を対象とした専門的な内容であったため筆者の能力では手に余る部分が多かったが、翻訳業界に役立てるという視点でできる限りポイントをまとめてみたい。
 


セッション 1 -漸次的自然言語処理

松原 茂樹 (名古屋大学) "Incremental Parsing and its Applications"

  • 同時機械通訳の実現のために必須となる技術「インクリメンタル・パーシング」に関する研究発表。パーシングすなわち構文解析は機械翻訳では必須の工程のひとつであり、翻訳の場合は一文ごとに構文解析するわけだが、同時通訳の場合は話者が一文話し終わってから構文解析していては間に合わないので、一言話すたびに構文解析をかけて、解析結果を更新していくような処理を行う必要がある(すなわちこれが incremental=漸次的な処理)。

  • [コーパスについて]名大では同時通訳(Simultaneous Interpretation)のスピーチを集めたコーパスを作成している。この音声コーパスを作るために、スピーチ用のアライメントツール(いわば通訳版WinAlign)を自作して使っている。集めたコーパスは通訳パターンや通訳タイミングなどの研究素材として公開している。

  • [Incremental Parsingについて]現在の機械通訳システムはセンテンス・バイ・センテンスが主流だが、人間の同時通訳ではもっと短い単位(句や分節に近い短い単位)で訳している。同時機械通訳のために必要なキー技術は「インクリメンタル・パージング」。

  • 名大では日本語会話の Incremental Dependency Parsing を実現すべく研究に取り組んでいる(名大の英日インクリメンタル翻訳システム=LINAS)。

  • 日本語の場合、一文の最後の分節以外の分節はすべて(おもに後方の分節への)依存関係に拘束されているため、インクリメンタルなパーシングには困難がともなう。Dependency Parsingの処理フローでは、まず Clause-levelのパーシングを行ってから、その後にMonologue-levelのパーシングを行うことになるが、次の節を読み込んだ時に依存関係が変化する場合があるのがやっかい。

  • [実用化]研究中のこの技術を役立てる実用アプリケーション例としては、日本語のスピーチ画像にリアルタイムに英語のキャプションを入れる、などが考えられる。

Srinivas Bangalore (AT&T Labs-Research、米国) "Simultaneous Machine Interpretation: Opportunities and Challenges"

  • [Motivation]全人類68億人のうち38億人はMandarin, Spanish, English, Arabic, Hindiのいずれかの言語を離しており、そのうちの70%は携帯電話を所有している。したがってこれらの言語相互間の(電話の)自動通訳システムを開発できれば非常に大きな需要に応えることになる。

  • 機械通訳の処理としてはSpeech Recognition(ASR)がまず行われ、つぎに翻訳(MT)が行われ、最後に Speech Synthesis(TTS)が行われる。

  • 通訳のレイテンシ(遅延)とアキュラシー(精度)の間にはトレードオフの関係がある。この処理で遅れを抑える(=レイテンシを短縮する)には、処理をインクリメンタルに行うしかない。

  • 以下、インクリメンタルな機械通訳のデモあり。その後の解説は残念ながらよく理解できず。


Ortiz Martínez, Daniel (UPV、スペイン) "Incremental Learning for Statistical Machine Translation"

  • 統計的機械翻訳(SMT)では高品質の翻訳はむずかしいが、その一方で現在一般的に行われている機械翻訳とポストエディットの組合せは最近のMT技術の成果を十分活用できていない。このギャップを縮めるために、IMT=Interactive Machine Translationというアプローチを提案する。

  • 一言でいえば、IMTではSMTと人間の翻訳者が交互に作業することで全体として翻訳の生産性をあげる。SMTが出力した翻訳結果をそのつど翻訳者が評価・修正し、その結果をフィードバックして次のSMT出力に反映させる。

  • IMTには様々の検討すべき要素があるが、この研究では翻訳者の評価・修正結果をもとにどのようにSMTモデルのパラメータを変更していくか(言い換えればSMTモデルにどのような漸次的機械学習-Incremental Learning-を行わせるか)に的を絞っている。

  • Incremental Learningによって推定する項目として、第一にSMT Generative Models(SMTの訳文生成モデル?)のパラメータ、第二にSMT Scaling Factors(評価関数の重み付け係数?)の二種類がある(ようだ)。

  • デモでは訳文をPEで修正する場合とIMTで修正する場合を対照して説明した。結論として、インクリメンタル学習システムは効果がある。なお、この発表についてはより詳細な解説が www.casmacat.eu から参照できる。詳しくはこのURLで公開されているCASMACATプロジェクトのWP2およびWP4を参照のこと。


デモンストレーション by NICT (情報通信研究機構)

  • NICTからは4件の研究成果が発表された。4件のうち「情報分析システム(WISDOM)」・「音声質問応答システム(一休)」は翻訳と直接関係がないのでここでは省略し、他の2件について報告する。

TEXT 翻訳システム

  • NICTの特許機械翻訳システムの紹介。NICTでは英文和訳特許翻訳・和文英訳特許翻訳・中文和訳特許翻訳・Eコマース分野の英中韓-日間翻訳・旅行者向け頻出表現の21言語間翻訳の機械翻訳を研究しているが、この発表では英文和訳特許翻訳について解説した。

  • [コーパス生成について]英和の特許コーパスは、過去17年間におよぶ1800万文のパテントファミリーの文書から自動生成している。優先権番号にもとづいてパテントファミリーを特定した後、請求項・要約・説明の各パートを抽出し、パートごとに文のアライメントをとる。このときに、文の類似性を辞書の対訳とのオーバーラップを使って判定するという賢いことをやっている。

  • 自動アライメントの精度は、1000文のうちA判定が899文(ほぼ問題なく原文と訳文が対応)、B判定が72文(80%の内容が対応)、C判定が26文(対応度が80%以下)、その他3文という結果であった(かなりの高精度といえるのでは?)。

  • [プレオーダリングについて]英文をいきなりSMTで和訳するよりもPre-orderingすなわち語順の事前変更を行ってからSMTにかけるほうがずっと精度がよくなることが過去の実験から分かっている。例文をみた印象では、Pre-orderingはNICTの経験から割り出された規則があるようで、単純に句を並べ替えるというわけでもないらしい。このPre-orderingを行った後、フレーズベースのSMTにかけて翻訳する。

  • 以下はデータ。1800万文のコーパスにもとづくトレーニング処理に2週間かかる。フレーズベースのテーブルは、最長のフレーズで5ワード、280Mのフレーズペア、全体でgzipしても7.1GBの容量。翻訳スピードは1秒あたり100ワード(おおむね3文)。

    【参考】“中国語 特許文”の高精度「自動翻訳ソフトウェア」を開発  http://www.nict.go.jp/press/2012/11/05-1.html

多言語音声翻訳システム (U-STAR)

  • 音声to音声の翻訳システムをS2STと呼んでいる。NICTのS2STは、1993-1999年のC-STAR、2006-2009年のA-STARという歴史があって、2010年以降U-STARに進化している。

  • その間に対応言語ペアをどんどん増やしてきた。ITU-TにはS2STのデータ構造についてリコメンデーションを提出している。

  • VoiceTra4U-MのS2STサーバーで27言語のMT、17言語のASR、14言語のTTSに対応している。

  • 最後にVoiceTraを使った3言語の同時通訳デモ。


セッション 2 - 翻訳とマルチモーダル

Andrew FINCH (NICT) "picoTrans: A System for Visual Cross-language Communication on Mobile Devices"

  • picoTrans -= picture icon Translation は NICTで開発している picture book(絵本、というかアイコン)を組み合わせて簡単なメッセージを翻訳しようという試み。

  • ユーザーがアイコンを並べると(たとえばレストランまでタクシーで行きたい、というときはレストラン・タクシー・歩く人のアイコンを並べる)そこからSMTサーバーが原文のセンテンスを生成する。そしてその原文をMTで翻訳する。

  • モバイルでの利用を意図した旅行者向けのシステム。(旅行会話の範囲に限れば)アイコンだけでも必要なコミュニケーションの70-80%はとれる。(それなら翻訳せずに pictureだけでいいんじゃない?という質問あり...)

Peter Juel Henrichsen (CBS、デンマーク) "SMALLWorlds – Multilingual Content-Controlled Monologues "

  • 言語が表現する対象となる世界を制限した状態で言語資源を蓄積するというこころみ。どうやら対象世界を制限することで、分量が少なくても精度の高いコーパスを構築できる...というような話のようだが残念ながら筆者の理解能力を超えてます、すみません。ご興味のある方は発表者のペーパーが下記のURLから参照できるのでこちらを読んでください。

  • http://www.lrec-conf.org/proceedings/lrec2012/pdf/357_Paper.pdf

  • 特定の限定された分野に関するSMALLWorldコーパスを構築する。SMALL = Spoken Multi-lingual Accounts of Logically Limited Worlds.

  • 約20ヶ国語の話者を300人ほど集める(たとえばオランダ語41人、英語19人、...)。

  • information-based のプリプロセスによってロバストネスを強化できる。(ノイズやスピーカーのばらつきなどに対して)

 
以上がこのシンポジウムの前半のレポートになります。さらにこの後、シンポジウムの後半が続きましたが、残念ですが筆者の説明能力を超えている内容が多く、このレポートでは省略させていただきます。認知科学的手法を取り入れた翻訳工程の分析研究など、とても興味深い内容もあるのですが...力不足ですみません。機会があればリベンジしたいと思います。

 

共有