日本翻訳連盟(JTF)

AI の未来を見据えた翻訳の役割(前編)
――株式会社松尾研究所・山田悠生経営戦略本部企画室室長に聞く

< 前ページ

●翻訳の用途と人間による最終チェック

山田:話を戻しますと、結局、機械翻訳がいいのか大規模言語モデルをベースにした翻訳がいいのかというのは、用途によるところがかなり大きいと思っています。

元の言葉と訳す先の言葉の対応がかなり厳密に、しっかりルール化されている場合は機械翻訳が強いですね。例えばある業界でしか使わない専門用語の一覧があって、この英単語は必ずこの日本語に訳すと決まっているのであれば、ニューラル翻訳を使ったほうがたぶん正確ですし、処理も早いと思います。

一方で、トランスクリエーションと言うのでしょうか、翻訳する時にある程度遊び心を入れるとか、目立たせたいとか、人間の感情的な部分に訴えかけたいというようなケースだと、ニューラル翻訳ではなくてトランスフォーマーをベースにした翻訳のほうが役に立つことはあると思います。ただ、正確さに問題が起こると思いますし、気をつけていてもハルシネーションは絶対に起こるので、対策をする必要があります。

松元:具体的にはどういう対策が必要ですか。

山田:まず、人間が必ず見るというのは当然のことで、AIがつくってきたものを最終成果物だと思ってしまうのは間違ったアプローチだと思います。AIのつくったものはすべて中間の制作物だと考えて、最後に人間がチェックしてOKだったらそれでいいし、間違っていたら直させるということをやったほうがいいですね。

それ以外の方法として、例えば大規模言語モデル同士を組み合わせて、Aの言語モデルが出してきたものをBのモデルにもう1回チェックさせるというアプローチもあります。例えば、ChatGPTが出してきた訳に対して、今度はGoogleのGeminiにチェックをさせる。人間でやる場合と同様で、一人でやっていると間違えるものでも、誰かがチェックに入ると間違いに気づいて直せる率は高まるように、AIにダブルチェックをさせるという方法もあります。

松元:その場合でも人間のチェックは必須ですか。GeminiがやってChatGPTがやってCopilotがやっても、やはり人間が一度はチェックしないと厳しいですか。あるいはそこで間違いは99.9パーセントなくせるようになってくるものでしょうか。

山田:それは受け手側の人間が、AIが100パーセントやったもの、つまり人間が全く目を通していないものを受け入れられるかどうかにかかっていると思います。

松元:車の自動運転みたいなもので、信用できるかどうかですね。でも最後は信用するかもしれないですね。

山田:自動運転は人命がかかわるので、よりシビアな話だと思います。実際に米国のカリフォルニアなどで商用化されているテスラやウェイモなどのAIの自動運転サービスの事故率と、人間のドライバーの事故率と見ると、AIの事故率のほうが低いはずなんです。ただ、それでもやはりまだ自動運転を信用しきれないというのは、人間の心情の問題だと思います。サービスを提供する側がそれでもいいと思って出すのか、または受け手側が「AIは100パーセント大丈夫でしょう」と思って受け入れるのか、ということではないでしょうか。

松元:確かに。

●リスクに応じたAIガバナンス

山田:翻訳自体も場合によっては、翻訳のミスや単語の抜け漏れがすごく重大になってしまうはずです。例えば医療機器の操作マニュアルや薬の禁忌といった、人命にかかわるところは人間が最後は絶対に見ないといけない。もしくはAIを介さず人間が全部やらないといけないかもしれない。何十億円といった大口の契約書の翻訳などもそうかもしれませんね。一方で、例えばSNSにおける外国語の投稿を日本語に訳すといったものなどは、別に人間が逐一チェックしなくてもいいだろうと考えることができます。

その辺りのAIのガバナンスというものは、まさに今、日本の中で議論されていますけど、リスクがどれだけ大きいかによって、対応の仕方とか規制の仕方を変えるということでしょうね。

松元:リスク度合いによって、ここは厳しくしなければいけないとか、こちらは緩くてもいいでしょうというふうに、ですね。

山田:もともとEUがAI Actという法律を、2025年8月に施行していますが、これもリスクベースのアプローチを取っていて、すごくハイリスクなAI、例えば個人の管理に繋がるようなものは禁止しています。個人の行動などを逐一監視して、それに関してクレジットをつけてスコアリングするなどというのはダメです。

松元:個人情報ですね。

山田:はい。それから、行政や警察などで使うようなAIはハイリスクなので、しっかりリスクに対応する。逆にそうでないものは一定のベースラインさえ守ってもらえればOK、といったコントラストの付け方になっていて、それと同じ発想が翻訳の世界でも求められるのかなと思います。

松元:そういう意味では、これからAIと共存していく社会になってくるんでしょうね。

山田:そうですね。翻訳の世界も、翻訳の部分以外でのAI活用可能性は高いと思います。特に分厚い専門書などを訳す場合は複数の方が翻訳に入ることが多いと思いますが、翻訳者間で情報のやり取りをしたり、翻訳される方によってそれぞれスタイルが違ったりするのでそれを揃えるなど、裏側の業務がけっこうあるんじゃないかなと思っています。AIはおそらくそういうところを非常に効率化してくれるのではないかと思います。

松元:そうですね。例えば辞書にデータが全部入っていて、そこから引っ張ってくるとか、プロンプトの部分で正確に出せば出すほど高品質のものができてくると思うのですが、5年後、10年後はわからないですけど、今の段階だとちゃんとチェックしないと危ないねという感じにはなっていますかね。

今日、米国人と話したのですが、欧米言語は翻訳の世界でかなり親和性が高いけれど、アジア言語はまだ信用できないところがあるということを言っていました。全く違う体系の言語なので、その辺りがまだまだ難くて、もう少し時間がかかるのかなという気がします。

山田:おっしゃる通りで、結局AIも膨大な情報から学んでいるので、全く情報がないものを正確に出力するのは無理なんですね。出力することはするんですけど、変なものが出てくる。結局、マイナーな言語になればなるほど、そもそもサンプルが少ないので精度も下がります。あるいは誤訳やハルシネーションの可能性も当然高くなってしまうということはありますね。

●コミュニケーションの言葉の壁を取り払う

松元:自然言語処理の中での話ですが、今、英日の翻訳の生成AIがどんどん進んできて、他言語を入れていないのに勝手にできるようになってきたという話を聞きました。どうしてこんなことが起こるのかが不思議です。コーパスを入れたわけでもないけれども、言葉自体の根本的な部分の理解ができ始めると、どの言語でも対応できるようになってしまうものなのでしょうか。

山田:おそらくおっしゃる通り、どの言語かにかかわらず、人間の使う言語の基本的な要素のようなものを何らか学び取った可能性はあると思います。

松元:やはりそういうことなんですか。

山田:はい。日本語なり英語なりを大量に学習して、ある程度、抽象化・一般化して、言葉の根本構造みたいなものを理解した可能性はあると思っています。進化人類学の知見によると、人間の使う言葉は時代、国や地方で多様でも、けっこう共通の要素を持っているらしいです。それをもしかしたらAIが学び取って、他の言語も使えるようになったかもしれませんね。ここは全然裏付けはありませんが。

松元:もともとはコーパスでどんどん入れて、それを活用する形でしたけれど、今はもうそんなにたくさんのものを入れなくても勝手に生成してくれて、どんどん磨いていくということができるということでしょうか。

山田:そうですね。進化人類学では、私たちが日常で使う言葉の大半はコミュニケーションのためであって、正確な情報伝達や意思決定のために使うことはあまりないと言われているようです。その点、コミュニケーションのための言葉であれば、今の大規模言語モデルならば、これ以上多くを学ばずとも相当程度出力できます。

今の大規模言語モデルは、知能という意味でも非常に伸びていると言われています。最も優れたモデルのIQが 130台後半から140といわれているので、人間で言えば天才クラスです。ただ、それでも、例えば日本翻訳連盟の事務作業にAIをとりあえずあてがってみて、「あなたは連盟の事務職員です。スケジュール調整をやってください」「規約の変更をやってください」などとだけ言っても、たぶんできないはずです。その能力はあるはずだけど、できない。なぜかと言えば、文脈などを理解してないからです。業務に関する特殊な知識や背景にあるいろいろな蓄積、それまでにつくられた文書などがあった上で人間は仕事ができる。AIも同じで、学習できるものがないと、どれだけ性能は高くても結局、全く活躍できないということはあります。なのでビジネスなどの局面では、学ぶべきことをAIに適切にインプットすることは引き続き重要です。

●AIをカスタマイズする――RAGとファインチューニング

山田:この学ぶべきことをインプットするということをより実用的に行おうとしたとき、最近はRAG(検索拡張生成)という仕組みが企業などのAIで使われています。これは、AIが考える時の材料を外から与えてあげようというものです。要するにデータベースを外付けで繋げて、そこを踏まえてAIが情報を検索し、出力する仕組みです。

例えば、建築会社は、建築基準法や、自社で使っている建材の仕様などを元に見積もりを取ったりすると思います。それをAIでやらせようとした時に、建築のことをきちんと学んでいないAIだと、どれだけ性能が高くてもおそらく見積もりがめちゃめちゃなものになると思います。一方でRAGを活用すると、外付けでつないだ建築基準法や自社で使っている建材の仕様などのデータベースを踏まえることができるので、法令や顧客の予算感などに合わせて「こういう建築資材をこれだけ使えば、法律上問題なく、リーズナブルで、かつデザイン的にも良いものができる」というふうに出力されます。

松元:RAGというのは、ある意味ディープラーニングと同じようなものですか。

山田:辞書を与えているようなものですね。この辞書を使って回答してねということです。

松元:プロンプトを出すのに、それを使ってくださいねと言うことで、そのデータを入れているんですね。

山田:そうです。その回答を出力する時に、その情報を参照してくれというわけです。今のChatGPTやGeminiは一般的な知識は持っているんですが、例えば、日本翻訳連盟における業務の仕方などはわかってないので、連盟の業務のフローなどを教えたり、業務のマニュアルや過去のつくられた文書、あるいは在籍者の名簿を読み込ませておいたりすると、より使えるAIになっていくということですね。

松元:だから今は企業ごとに独自のAIをつくって使いやすいAIに、ということになっているのでしょうか。

山田:そうですね。これは個人的なイメージではあるのですが、今の汎用的な、製品化されているChatGPTやGeminiなどのモデルは、基本的には新卒の新入社員みたいなものです。どれだけ彼らのIQが高かろうと、その会社の経営戦略の話がいきなりできるわけがないのと一緒です。活躍できる土壌を整えてあげないとうまく動かないということですね。

松元:それがRAGということですか。

山田:RAGはその1つの手段です。それ以外にもいろいろやり方はあります。RAGはAIの外から情報を参照してくるのですが、AIのモデル自体に追加で知識を学習させて、それを踏まえて回答できるようにしようというのもあります。ファインチューニング(FT)と呼ばれるやり方ですね。また、特に最近よく言われているのは、人間がフィードバックすることによって、よりユーザー側に寄り添えるようになるという手法があります。

例えば、健康に関する情報をAIから引き出したいと思った時に、全く人間がフィードバックしないと、すごく無茶振りをしてくることがあります。「毎朝10キロ走ったらあなたは健康になれます」「毎日腕立てを1,000回やったらムキムキになれます」とか言ってくる。あるいは、「10キロ走りなさい」とか、高圧的な口調でAIからアドバイスされると、人間側はちょっとイラっとすると思います。

人間が感じる不満や改善要求をユーザーがAIにフィードバックすることによって、それをAIが学んで、じゃあもうちょっと柔らかい話し方にしたらいいんだなとか、もうちょっと人の目標に応じて最適なことを言ってあげたらいいんだなということを学んで、より賢くなる。そんなこともあります。(次回につづく)

◎プロフィール

山田悠生(やまだ ゆうき)

東京大学大学院修了後、シンクタンク・大手コンサルティング会社にて、主に中央省庁向けの政策提言・効果検証や、地域産業振興の実証などに従事。2024年から日本のAI研究を牽引する東京大学大学院工学系研究科松尾・岩澤研究室に伴走する株式会社松尾研究所で、政策提言活動や講演等の企画活動に従事。地方でのAI活用に強い関心をもって活動。中小企業診断士(2025年登録)

共有