AI入門AI入門

YSEトップAI入門 / 第7回 AI×手話プロジェクト

第7回 AI×手話プロジェクト

AI×手話プロジェクト

前回は「音声認識」の言語の構造解析について話をしました。機械と会話できるって一昔前は夢のような技術でした。もちろん、第4回で話したチャットボットのような技術はありましたが、人間の話し言葉を確実に理解して、なめらかな会話を実現するまでには至りませんでした。機械と人の会話も重要ですが、人と人の会話も大切ですよね。

今回は技術の話から離れて、実際にAIを使って会話をしている研究のひとつを見てみましょう。2018年10月31日に北海道大学の山本教授が「AI×手話プロジェクト」のプロトタイプを発表しました。このプロジェクトは、手話を利用している方との会話において、意思伝達をスムーズにしたり、コミュニケーションを図ったりするシステム作りが目的となっています[※1]。日本語から英語、フランス語といったように翻訳に関するシステムはインターネットでテキスト翻訳したり、翻訳機で音声変換したり、とても身近です。しかし、手話に関してはテレビの一部で見るぐらいではないでしょうか。これは手話人口が日本人の0.06%ととても少ないためです[※2]。手話を利用している人は色々な場面で不自由をしていると思います。筆談という方法もありますが、やはり普段通りに意思疎通をしたいのではないのでしょうか。これを実現してくれるのがこのプロジェクトです。

プロジェクトのシステムをみると、手話の動作をカメラで取り込みテキストに変換するとなっています。仕組みはとても簡単に見えます。このなかで、画像認識、意図理解、テキスト化という部分でAIを利用しています。前回話をした「言語の構造解析」も利用されていると思います。今回は技術的な話はナシなので、次回以降、説明したいと思います。

また手話は手の動きだけでなく、顔の表情や、うなずきなどの情報(非手指動作)も文法的意味を持っているそうです[※3]。そのため、手話を翻訳するためにはそれらも認識する必要があり、手話表現はとても複雑なことが分かります。音声言語にもイントネーションがあって、感情が含まれているようなイメージでしょうか。音声のイントネーションといえば方言が思いつきますが、調べたところ手話にも方言があるそうです。おそらく今回はそこまで対応していないと思いますが、将来、実現可能になると考えられます。

AIを活用して、コミュニケーションの垣根を越えていけるってすばらしいですね。

[※1] https://www.s-ail.org/news/pressrelease/578.html
[※2] https://wired.jp/waia/2017/23_junto-ohki/
[※3] http://autonomous.jp/機械学習を用いた手話認識/


「YSeye18号」掲載