名古屋大学の研究グループと徳島大学、アイシン精機株式会社は2018年10月25日、「マルチモーダル対話型自動運転車」を開発したと発表した。音声や視線、ジェスチャなどを用いて、一般ユーザでも自動運転車を直感的に操作することが可能となっている。
研究グループには、名古屋大学大学院の武田一哉教授や竹内栄二朗准教授、石黒祥生特任准教授らが参加。名古屋大学発スタートアップの株式会社ティアフォーが開発するオープンソースの自動運転ソフトウェア「Autoware」を活用しているほか、車両には音声や視線、顔の向き、口の動作、ジェスチャを認識できる技術も搭載している。
発表では一例として「『そこを曲がって』と指をさせば、ドライバーの意図するところで曲がってくれる」と説明。その上で「今後、ドライバーと自動運転車との新しい人間—機械協奏関係が拓かれていくことが期待できます」としている。開発には豊田中央研究所も協力した。
【参考】マルチモーダルインタフェースとは、音声やジェスチャなどの人間からの入力を受け、機器の操作などに反映するインタフェースのことを呼ぶ。個々の入力手段を「モダリティ」と呼び、それが複数あることから「マルチモーダル」と呼ばれる。
発表では、マルチモーダル対話型自動運転車の研究の背景と経緯についても説明。現在、自動運転用のセンシング技術や制御技術などは既に進展がみられることを説明した上で、実際に一般の人がどのように自動運転車を操作するのかについての検討は、あまり盛んに行われていないことを指摘している。
その上で「自動運転車が真に社会に浸透し、一般の人が容易に利用できるようにするためには、自動運転車と人とのコミュニケーションが必要」と強調。タクシー運転手に指示するように自動運転車を操作できる形の重要性や利点を説明している。
【参考】関連記事としては「自動運転車とは? 定義や仕組み、必要な技術やセンサーをゼロからまとめて解説|自動運転ラボ」も参照。