コミュニケーションとインタラクション

これまで、音楽を聴いて,適応的に人とインタラクションを行うロボット,自分自身が作り出す自己動作雑音を抑圧しながら,周囲の音環境を聞き分けることができるロボット,ロボット自身が話している間にユーザから話しかけられても会話を続けることができるロボットなど,ロボット聴覚技術適用した人・ロボットコミュニケーションへ応用していく研究を行ってきましたが,2021年4月の講座名変更を機に,コミュニケーションやインタラクションへの将来的な適用を念頭した新しい研究テーマをこれまでの技術を発展させる形で取り組んでいます。

 

具体的には,「気配を察知」したり,「空気を読む」ことができる技術の構築を目指します。このために複数の情報を統合したり,単独の情報では補いきれない部分を他の情報でカバーするマルチモーダル認識・予測技術を扱っていきます

 

こうした技術が構築できれば,人との親和性が高く,場をわきまえたシステムの実現につながると考えています。

 

研究室のテーマの中では新しいテーマです.現在はその第一歩として,様々な振動の観測が含まれる1拠点の振動計データから,地震のみを検出し,大きさを認識する研究や,音から周囲の環境を把握する研究,視聴覚環境認識研究など,気配の察知につながるセンシング技術の研究を行っています。

 

視聴覚環境認識

音、もしくは画像のどちらかだけを使って,周囲の環境を完全に理解することは困難です。そのような欠落した情報やあいまいな情報を別のモダリティから補完する研究を行っています

 

図1は、SfMは静的なシーンのみを想定しているという強い仮定を緩和するため視聴覚統合を用いた、動的な動きを伴うシーンの4D再構成の例です。

図2は、視覚情報だけでは再構築できない透明なオブジェクトの再構築を示しています。



視聴覚による微笑み推定

人間とのコミュニケーション・インタラクションを効果的に行うためには、人間の感情を推定することが重要です。特に、幸福感(心地よさ)を推定することが、介護・リハビリテーション分野で求められています。表情(笑顔の強さ:笑顔度)、および、音声情報から、幸福度(心地よさ)の推定を行おうとしています。

主要論文

Back to Top