米ラスベガスで開催中の世界最大級の家電見本市「CES 2019」で、日産自動車が「見えないものを可視化する」新技術をアピールしている。その新技術「Invisible to Visible」(I2V)は、これまでビルに隠れて見えなかったカーブの先の状況をドライバーが理解できるようにするようだ。センサーデータやクラウドデータを統合し、実現するという。
「I2Vは従来の情報提供の方法を大きく変える」。このI2Vの開発を主導した上田哲郎氏(総合研究所・エキスパートリーダー)が語る日産の将来ビジョンが興味深い。以下に全文を掲載する(出典:日産プレスリリース)。
記事の目次
- ■Q1:「I2V」技術について教えてください。
- ■Q2:他の技術と「I2V」を差別化する要素は何でしょうか?
- ■Q3:人間同士がコミュニケーションするような情報提供ということですが、他のVPA(バーチャル・パーソナル・アシスタント)との違いは何でしょうか?
- ■Q4:Omni-Sensing(オムニ・センシング)を通じて入手する交通状況などの情報は、アプリ等で提供される情報と何が違うのでしょうか?
- ■Q5:CESでは、メタバースからアバターとしてクルマに乗り込むデモも行っています。このアバターは車両をコントロールすることもできるのでしょうか?
- ■Q6:バーチャル空間を経由して運転体験を共有できるのは魅力的ですが、実際に車を運転することの楽しさがなくなりませんか?自動車の保有意欲を低下させませんか?
- ■Q7:運転中にメタバースの世界に入ってしまうことに懸念はありませんか?
- ■Q8:この技術は、どこでも使えるのでしょうか?それとも、都市などのインフラが整っている場所に限られるのでしょうか?
- ■【まとめ】日産のコネクテッド自動運転車の目玉技術に
■Q1:「I2V」技術について教えてください。
「I2V」はドライビングの体験を大きく向上させるものです。リアル(現実)とバーチャル(仮想)の世界を融合することで、ドライバーに「見えないものを可視化」し、究極のコネクテッドカー体験を生み出します。
走行中に収集した様々な情報やバーチャルの世界の情報を、3DやAR(拡張現実)の情報としてドライバーの視野に投影します。通常では見えないものが可視化され、双方向のコミュニケーションができるようになるのです。
■Q2:他の技術と「I2V」を差別化する要素は何でしょうか?
これまで情報機器とのインタフェースは、基本的にスクリーンへの表示を前提とし、そこに音声が追加されるというものでした。「I2V」はそうした従来の情報提供の方法を大きく変えるものです。
車内で3Dの情報提供を行う技術はこれまでも研究されてきていますが、私たちのアバターをMR(複合現実)で表示する新しい手法は最大の差別化につながると考えています。何故なら、この手法はリアルとバーチャルの世界を融合し、双方向コミュニケーションのレベルを大きく向上させるからです。また、乗員への情報提供を、アバターを介した人間らしいコミュニケーションによって行うという点も差別化の要素になると考えています。
■Q3:人間同士がコミュニケーションするような情報提供ということですが、他のVPA(バーチャル・パーソナル・アシスタント)との違いは何でしょうか?
私たちは「I2V」においてエージェント的な振る舞いをするアバターのことをTraverse-Agent(トラバース・エージェント)と呼んでいます。
通常のVPAがAI(人工知能)によってユーザーアシスト機能を効率化することを主眼にしているのに対して、Traverse-Agentは人とのインタラクションを重視しています。VPAは機能的なアシスタントであるのに対して、Traverse-Agentは機能的なアシストにとどまることなく、移動空間を共有するパートナーとなることができます。何故なら、「I2V」は日産独自のOmni-Sensing(オムニ・センシング)技術などによって収集した情報やメタバースを最大限に活用できるからです。
Traverse-Agentは、気軽な話し相手から、ドライブガイダンス、運転や語学のトレーニング、ビジネスやプライベートのコンサルタントやカウンセリングまで、幅広いニーズに応えるパートナーになることができるのです。
■Q4:Omni-Sensing(オムニ・センシング)を通じて入手する交通状況などの情報は、アプリ等で提供される情報と何が違うのでしょうか?
交通情報を知るのにメタバースにアクセスする必然性はありません。交通情報クラウドにアクセスしてデータを可視化すればよいからです。これは、現在のクラウドにつながるコネクテッドカーのサービスで対応可能です。
一方、「I2V」はOmni-Sensing(オムニ・センシング)を介して得られたデータをより高度に活用します。例えば、交通渋滞について言えば、渋滞の原因は何か、どの車線を走行するのが最適かといったことまで「I2V」で知ることができます。このような通常では見えない情報まで知ることによって、ドライビングのストレスも削減することができるでしょう。
■Q5:CESでは、メタバースからアバターとしてクルマに乗り込むデモも行っています。このアバターは車両をコントロールすることもできるのでしょうか?
CES2017で発表した「SAM(Seamless Autonomous Mobility)」コンセプトのように、専門のオペレーターが自動運転で走行している車両に対して指示を出すことは想定しています。しかし、アクセルやブレーキ、ステアリングの操作など、運転そのものをコントロールさせることは考えていません。ただし、存在感や共同体験の質を増すために、運転以外の操作、例えばエアコンやオーディオ機器の操作をアバターに許可するということは考えられます。
■Q6:バーチャル空間を経由して運転体験を共有できるのは魅力的ですが、実際に車を運転することの楽しさがなくなりませんか?自動車の保有意欲を低下させませんか?
自動車は人の移動欲求を満たすものです。「I2V」のコアとなる機能は、移動体験を共有し、双方向コミュニケーションのレベルを高めるというものです。この技術は移動することで生まれる双方向コミュニケーションの対象を、現実世界から急速に発展しつつあるメタバースとそのエンドユーザーにまで広げます。
これは双方向コミュニケーションが可能になるユーザーが飛躍的に増えることを意味しており、「I2V」ならではのユーザー体験を得るためにクルマを使うというモチベーションが生まれることを期待しています。
また、バーチャル(仮想)空間での同乗体験は、現実での移動体験には決してかないません。ですから、クルマを運転することが減るというような心配はまったく不要ですし、メタバースでの同乗体験をした人は、もっと現実世界で移動したくなると考えています。
■Q7:運転中にメタバースの世界に入ってしまうことに懸念はありませんか?
この技術で、走行中にメタバースに完全に入り込んでしまう(フルダイブ)ということはありません。あくまでメタバースの要素を活用したり、メタバースからアバターとして現実世界の車内にビットアウト(Bit-out:デジタルの姿のままで出現する)した存在と会話したりすることがこの技術なのです。そこがVR(仮想現実)体験との技術的な差異でもあります。VRを使えば技術的にはフルダイブが可能ですが、そうした使い方は運転体験には適していないと考えています。
■Q8:この技術は、どこでも使えるのでしょうか?それとも、都市などのインフラが整っている場所に限られるのでしょうか?
インターネットが使える環境があればどこでも使えます。移動中に使うことを考えると、5G以上のワイヤレス技術の登場が待たれます。運転中に使える通信スピードを確保した技術が登場すれば、「I2V」はモビリティ体験を大きく向上させ、限りない世界へのドアを開けてくれることでしょう。
■【まとめ】日産のコネクテッド自動運転車の目玉技術に
リアルとバーチャルを融合することで、究極のコネクテッドカー体験を生み出す——。コネクテッド自動運転車(CAV)が今後確実に自動車販売の主役になっていく中で、こうした先進技術は日産の目玉になっていくことだろう。
【参考】関連記事としては「日産の自動運転戦略や技術まとめ EV、コネクテッド化も柱」も参照。