自動車の運転には「認知」「判断」「操作」が求められる。どれか一つが不十分なだけで安全性が損なわれる。自動運転時代には主に「判断」「操作」をAI(人工知能)が担うことになるが、命に関わることだけに企業側はAIの開発方針や機能などについて、乗る人に向けて説明責任を果たしていくことが必要であろう。
ではこうしたAIの扱いについて、自動運転領域で存在感を示す自動車部品大手の独ボッシュはどのように考えているのか。その考えを垣間見ることができるガイドラインがこのほど策定・公表されたので、その中身を読んでいこう。
ちなみにガイドライン資料の前述では「レッドライン(超えてはならない一線)を定め、個人や人々の生活をいかなる形でもAIで犠牲にすることは決してない」と説明され、フォルクマル・デナー最高経営責任者(CEO)も「AIは人々の役に立つものであるべき」と強調している。
■ボッシュのAIガイドライン(倫理指針)とは?
ボッシュのガイドラインは「原則」「基準」「AIによる意思決定に対する3つのアプローチ」の3つの項目に分けられている。
原則
「原則」においては、「人々に影響を及ぼすAIの意思決定に関しては、人間が最終判断を下さなくてはならない。むしろAIは人々のための道具として用いられるべきである」とし、AI製品を開発する際には法的要件や倫理規範に準拠することなどが挙げられている。
基準
「基準」においては、「AI製品や使用は、世界人権宣言の条項に違反してはならない」「AI製品を製造する国の法律に準拠して活用されなくてはならない」などとし、ボッシュとして遵守する内容を明確にした。
AIの意思決定に対するボッシュの3つのアプローチ
ボッシュはAIの意思決定に対する「3つのアプローチ」も提言している。この3つのアプローチに共通するのは、「AIが行う意思決定においては、いかなる状況においても人間がコントロールしなければならない」ということだ。
第1のアプローチは「human-in-command(ヒューマン・イン・コマンド)」で、AIはあくまでも人間の「補助」として捉えるとしている。
第2は「Human-in-the-loop(ヒューマン・イン・ザ・ループ)」だ。これはAI自らが判断を下しても、人間がいつでもその決定を覆すことができるという趣旨だ。例えば自動運転で言えば、AIによる意思決定を人間の介入によって変更できるということだ。
第3の「Human-on-the-loop(ヒューマン・オン・ザ・ループ)」は、意思決定そのものはAIに委ねるが、AIの意思決定に関するパラメーターは人間が事前に定めるということ。また、意図した通りにAIが決定を下したかどうかを遡っても確認でき、必要に応じて調整できるようにするという。
■【まとめ】2025年までに全製品に
ボッシュはAIを同社にとって極めて重要なテクノロジーと位置付け、2025年までにはボッシュの全製品にAIを搭載もしくはAIを活用することを目指している。ボッシュが開発している自動運転関連技術にももちろん搭載されていき、今回のガイドラインの方針が反映されていくのだろう。
【参考】関連記事としては「ボッシュの自動運転・LiDAR戦略まとめ 日本や海外での取り組みは?」も参照。