ハートネットメニューへ移動 メインコンテンツへ移動

ろうを生きる 難聴を生きる「AI×手話 夢のプロジェクト実現へ」※字幕

    聞こえない人と聞こえる人が、いつでもどこでも自由に会話できる!そんな夢のような時代が、すぐそこに来ているのかもしれません。今回、番組で紹介するのは「AI=人工知能」のテクノロジーを応用し、手話と日本語を翻訳するという、世界でも珍しい研究です。北海道大学教授の山本雅人さんが中心となり「AI×手話」プロジェクトが進められています。難聴の後藤佑季リポーターが前線の現場を取材!「AI×手話」を体験します。

    出演者ほか

    【出演】北海道大学教授…山本雅人,【リポーター】後藤佑季,【語り】高山久美子

    番組ダイジェスト

    AI×手話 夢のプロジェクト実現へ

    こちら囲碁でプロ棋士と対局するのは、今、話題のAI=人工知能です。将棋の名人を打ち負かした、というニュースを見たことがある人も多いのでは?

    「こんにちは。どうされましたか?」

    photo

    実は今、AIを聞こえない人の生活に役立てる研究があります。先程の男性の声が手話に変換され画面上に。逆に、今度は人の手話を正確な日本語に変換していきます。

    photo

    手話のできない人とでもスムーズにやりとりができる夢のツールです。

    後藤リポーター
    「(手話)こんにちは。
    おーすごい!認識してもらいました。」

    photo

    大学、企業、自治体が共同で進めている、この手話自動翻訳システムの開発。多様な手話の動きを、AIがどこまで正確に認識できるのか、大きな注目を集めています。プロジェクトの中心メンバーが、北海道大学 大学院でAIの研究をする、教授の山本雅人さんです。

    photo

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「人々の暮らしを便利にできるように、豊かな暮らしができるように技術の力でサポートしたいなっていうのが、基本的な大きな目標です。」

    今回は聴覚に障害があり、人工内耳を使っているリポーター、後藤佑季さんが、「AI×手話」の研究の最前線を取材しました。

    photo

    北海道札幌市。この日、山本さんが円山動物園でAIを活用するための研究を進めていると聞き、後藤リポーターが訪ねました。

    後藤リポーター
    「こんにちは、はじめまして。」

    photo

    今、山本さんが力を入れているのは、「物」や「動物」「人」の「動き」を記録し、そのデータを活用していくシステムの開発です。

    後藤リポーター
    「何をされているんですか?」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「チンパンジーたちの行動を、このカメラによって撮影して、チンパンジーたちが日々どういう動きをしているかとか、異常の検知とか、最近のAIの技術を使って、24時間カメラによって見守ってあげようという取り組みです。」

    このように、時に予測不能な動きをする動物たち。飼育員だけで常に見守るのには、限界があります。そこでAIが個体の認証を行い、それぞれの行動を24時間観察するというのです。

    photo

    そのデータを解析。野生とは大きく異なる環境で暮らす動物の異常を、いち早く発見できれば、健康管理などに役立てられるといいます。
    飼育員がいない時間帯のリスクは、死亡事故につながるケースもあり、問題になっています。この研究には大きな注目が集まっているのです。

    後藤リポーター
    「山本先生の研究に、これからどういう期待がありますか?」

    飼育員 石橋佑規さん
    「動物の行動を我々なるべく長い時間見ていたいと思うんですけど、どうしても時間がとれなかったりっていうことがあるので、その部分を助けてくれるものがあれば、その時間を使って、例えばもっと彼らが過ごしやすくする工夫とか、そういったことに割くことができる時間が、我々にとって増えていくので、そういう部分でも期待をしています。」

    photo

    山本さんは他にも、高度な戦略が必要な「カーリング」にAI技術を活用するというユニークな研究もしています。動きに規則がある囲碁や将棋と違い、狙い通りにストーンを投げられるとは限らず、不確実な要素も多いスポーツ。100万通りの動きや衝突をシミュレーションし、ショットがずれる確率も考慮。その分析から、最善の一手を導き出すという考察には、日本のトップ選手たちも驚かされたといいます。

    photo

    こうした複雑な動きの分析もできるAIの技術を生かせないかと、今、取り組んでいるのが、手話自動翻訳のプロジェクトなのです。後藤リポーターが、その研究の現場を訪ねました。

    後藤リポーター
    「こちらが手話の?」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「そうですね『AI×手話』の研究をしているところです。」

    photo

    「こんにちは。どうされましたか?」

    薬局を訪ねた、聞こえない患者と、聞こえる薬剤師のやりとりを想定したシミュレーションです。

    photo

    まず薬剤師の声を、AIが認識します。すると、該当する手話を選び出し、画面に表示します。

    photo

    今度は患者の手話をAIが認識し、日本語のテキストに翻訳するのです。

    photo

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「手話を認識してテキストに。そのテキストを見た方が音声で話した内容を手話にするという、双方向の会話ができるように設定しています。」

    AIが捉えるのは、手話表現をする人の一連の動作。右の黒い画面に、白く現れているのが動きをデータ化したものです。

    photo

    これに該当する日本語を割り出していきます。今まで見てきた研究に比べても、その細かさや複雑さは段違い。また人によって速度も異なります。意味を特定するには、非常に高度な技術が求められるのです。

    後藤リポーター
    「やってみたくなりました。」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「ぜひやってみてください。」

    後藤リポーターが試してみることに。

    「こんにちは。どうされましたか?」

    手話をする人が分かっても、うまく認識できるんでしょうか?

    後藤リポーター
    「(手話)頭が痛いです。薬を探しています。
    すごーい、認識してもらえました。」

    photo

    「どのような痛みですか?」

    後藤リポーター
    「ズキズキとした痛みです。」

    photo

    後藤リポーター
    「おー。」

    photo

    後藤リポーター
    「手話、話者の場合は、筆談をしたり、タブレットでスマホで文字を打ってみせたりとかして、細かいニュアンスが伝わらなかったりとか、顔を見て会話ができないですけど、この「AI×手話」があると、顔を見て会話ができたりとか、伝えたいことも伝わったりするのかなと思って、今やってみて手話が伝わるっていうのが、すごく楽しかったです。うれしかったなと思います。
    普段は口で会話していますけど、人工内耳を外して街にいたりする時もあるので、そういう時に手話でサッとできたら楽だなって思いました。」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「なるべく早く普及できるように、頑張っていきましょう。」

    実はこの研究を陰で支えているのは、多くのろう者たちです。20代から50代の幅広い年齢層が研究に協力しています。多様な手話を動画で記録し、AIに学習させているのです。

    photo

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「いろいろな、個人差も含めて、いろいろな動作があるので、たくさん、とにかく、いろんな方の動画を集めていきます。それらは全て『こんにちは』の動作なんですよっていうことを、ひたすらコンピューターに教え込むっていうことをしていきます。」

    後藤リポーター
    「辞書に、とにかく、たくさんの言葉を覚えさせて、その辞書の中の、何が当てはまるかを見つけるみたいな。」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「結局ひとつの言葉を増やそう、AIが認識できるようにしようとしたら、その言葉に相当する動作を何十人も集めて、ひとつ追加しなければいけないので、なかなか大変な作業です。例えば1万という語彙を覚えさせようと思ったら、1万通りの動作をたくさんの人にやって頂いたデータが必要になるので、ちょっとそこが一番苦労しているところですね。」

    後藤リポーター
    「AIについて期待することはありますか?」

    札幌聴覚障害者協会 長谷和明さん
    「AIを使うことで便利に時代が変わっていく気がします。まだまだ足りない面もありますが、研究を積み上げていけば、将来期待できると思います。」

    photo

    6月「AI×手話」が実用化に向け、大きな一歩を踏み出しました。大手通信会社が、北海道にある超高速の大型サーバーを提供すると申し出たのです。

    大手通信会社 表史彦さん
    「学習容量が増えると、ここ(北海道のサーバー)の環境が問われるみたいで。」

    「近ければ近いほど、レスポンスが速い。」

    現行の「AI×手話」で使っているものと比較し、数十倍の処理能力があり、格段に効率よく手話を記録、学習できるといいます。将来的には、スマートフォンがあれば、いつでもどこでも「AI×手話」を利用できるシステムの開発を行っていきます。

    photo

    1〜2年後の実用化を目指し、秋ごろから共同研究をスタートさせる予定です。

    大手通信会社 表史彦さん
    「地域の社会課題の解決に、会社として取り組んでいこうというのが方針としてありまして、手話を用いる方はコミュニケーションにご苦労される部分があると思いまして、こういった形で技術を用いて、お困りごとを解決できるというのは、社会的にも非常に意義があることかなと感じております。」

    photo

    現実味を帯びてきた手話自動翻訳の実用化。しかし実は、山本さんが目指すゴールは、さらに先にあるといいます。現在AIが「自己学習」を進めることで、誤訳を限りなくゼロに近づけています。

    photo

    翻訳の精度を高め、次に取り組もうというのは「手話学習ソフト」の開発です。カメラに向かって手話をすると、正しいかどうかをAIが判定してくれるというものです。

    photo

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「手話を実際に動作してもらって、間違っているよとか、合っているよということを指南してくれることができると。皆さんが家庭で手話を勉強できるような仕組みができあがって、それがどんどん普及していくと。多くの人が手話を覚えることができて、皆さんが手話をするっていう社会も素敵じゃないかなと思っています。」

    後藤リポーター
    「もしそんな社会になったら、本当にバリアを感じずに。」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「当たり前に手話が使われるっていうのは、理想的な社会じゃないかなと思います。」

    後藤リポーター
    「そんな社会が実現したら、本当にうれしいなと思います。」

    北海道大学 大学院情報科学研究院 教授 山本雅人さん
    「私たちもそれを目指して頑張ります。」

    photo

    後藤リポーター
    「今回取材してみて、あらためてテクノロジーで障害は障害じゃなくなる、というのを感じました。私自身もこの人工内耳というテクノロジーで、聴覚障害を聴覚障害じゃない、というふうに感じている部分があるんですが、今回は手話という部分で、テクノロジーが障害を障害じゃなく感じさせる、そんな未来が見えてとても楽しみになりました。」

    AIのテクノロジーで、聞こえない人の暮らしをより豊かにしようと研究を続ける山本さん。街角で翻訳システムを使ってやりとりをしたり、聞こえる人も聞こえない人も手話で会話する人が増えている。そんな未来も、そう遠くないかもしれません。

    新着ダイジェスト