ホーム 研究内容 ニュース 刊行物 アクセス

研究内容紹介

人にやさしい放送技術

概要

 放送内容に関連するデータを自動変換して、耳や目に障害のある方や、外国人を含むすべての視聴者に、情報を迅速かつ正確に伝える「人にやさしい」放送のための研究開発を進めている。
 情報提示技術の研究では、顔表情を含めた気象情報手話CG翻訳技術の研究を進め、CGキャラクターの手指動作を改善するための自動修正機能の開発と、顔表情と口型を表現する機能を統合した手話CG翻訳システムを開発して主観評価を行った。また、気象庁からの電文データを基に気象手話CGを自動生成するシステムを実用化し、評価ページをNHKオンラインで公開した。
 立体の形状や固さ情報を伝えるための触力覚提示の研究では、人がCG上の仮想物体を親指、人差し指、中指の3本の指でつかんで、仮想物体の表面をなでるように手を動かすことにより、仮想物体の大きさと形状を瞬時に伝えられる装置を開発した。
 字幕制作のための音声認識技術の研究では、背景雑音や不明瞭な発声を含む情報番組を対象として、発音辞書を用いないEnd-to-end音声認識方式の開発に取り組んだ。また、番組中で推移する話題に対応した単語の接続確率を、話題とともに推定する技術を開発した。話題の推定精度が低い場合でも単語の推定精度が低下しないため、認識精度が向上した。
 音声ガイド・音声合成の研究では、生番組にも対応可能な新たな解説放送サービスの実現を目指した音声ガイドの研究に着手した。リオオリンピック・パラリンピックにおいて、オリンピック放送機構から配信される競技データを解析して、選手名や得点経過などの競技状況を説明する音声ガイドを自動生成するシステムを構築し、2016年9月までに1,929試合、2017年1月までに2,496試合の動画に対して音声ガイドを自動で付与した。視覚障害者と晴眼者に対して自動生成した音声ガイドの主観評価実験を行い、それぞれの利用観点から有効性が示された。また、音声ガイドで使用するための音声合成技術の研究では、DNN(Deep Neural Network)方式による音響モデルを用いた汎用音声合成システムを構築した。
 言語処理技術の研究では、日本在住の外国人を対象とした新たな情報提供手段として、読解支援情報付きニュースの研究に着手した。ニュースに対して、やさしい日本語による説明、漢字のふりがな、難しい単語に対する辞書情報、固有名詞の色表示、外国語の翻訳などの読解支援情報を付与することで、ニュースの理解を促進させることができる。機械翻訳技術を用いて読解支援情報を自動付与し、誤りを人手で修正可能な読解支援情報制作システムを開発した。
 映像認知解析の研究では、8Kスーパーハイビジョンの広視野視聴環境に適した映像の特徴を調べた。100種類の多様な映像を対象にして、好まれる映像の大きさと映像内容の特徴や視距離との関係を調べた結果、視距離が変化しても好まれる映像サイズと映像内容との関係は大きく変わらないことを確認した。また、映像の動揺によって感じることのある不快感について、動揺の継続時間や観視画角の影響を明らかにした。