米テキサス州ヒューストン北郊で2021年4月17日夜、運転席が不在だった米EV(電気自動車)大手テスラの車両が木に衝突して炎上し、乗っていた男性2人が死亡したという事故があった。
事故を起こしたのはテスラの「Model S」で、死亡した2人のうち1人は助手席で、もう1人は後部座席で発見された。運転席に人がいなかったことが確定的であったため、運転支援システム「Autopilot」が起動していた可能性が浮上した。
しかし、現在のところはAutopilotが起動していたかは分かっていない。米道路交通安全局(NHTSA)も情報を収集中だ。イーロン・マスクCEOはAutopilotが使用されていなかった、と指摘している。
■自動運転レベル2では運転席を離れてはいけない
事故に関する調査が進まなければなんとも言えないが、仮にAutopilotが起動されていたとしても、Autopilotは自動運転レベル2(部分運転自動化)の性能しか有していないため、人が運転席を離れることは許されていない。
そのため、Autopilotが稼働中に運転席を離れたとすれば人間側のミスであると言えるが、今回のケースではどうだったかに関わらず、こうしたことは実際に起こり得る。
自動運転レベル2の搭載車種を開発している企業には、こうしたことを想定した対策が、今回の事故を機により求められることとなりそうだ。
■自動運転システムは「性悪説」での開発が必要
ちなみにテスラ車による死亡事故は過去に少なくとも2度発生している。しかし、いずれも人間側の責任も大きい事故だった。
2016年5月、Model Sの運転手が米フロリダ州の高速道路を「自動運転モード」で走行していた際に、大型トレーラーに衝突し死亡した。ただし、運転手は実際にハンドルに手を添えなければいけない37分間の内、わずか25秒しかハンドルに触れていなかったという。
2018年3月には、Autopilotを起動させたModel Xの運転手が米カリフォルニア州の高速道路の中央分離帯に衝突し死亡した。NTSBの調査によると、衝突の6秒前にシステムが運転手にハンドルを握るよう警告していたが、ハンドルを握ったデータは確認されなかったという。
【参考】関連記事としては「テスラの半自動運転死亡事故、原因『視線監視機能の不備にも』米運輸安全委が発表」も参照。
このように人間による責任も大きい事故が度々起きているが、重ねてになるが、このような人間の行動を想定して自動運転システムは開発されるべきだ。性善説では安全性の高い自動運転システムはつくれない。自動運転システムは「性悪説」での開発が必要だ。
ちなみに自動運転レベルが「レベル3」(条件付運転自動化)の車両でも、基本的には性悪説での対応が求められている。レベル3では自動運転システムが稼働中でも常に人間がすぐ運転を交代できる状態でなくてはならないため、車内カメラでドライバーの状態を常に監視することが必要とされる。
いわゆる「ドライバー監視システム」としてこの仕組みの開発が進められており、自動運転の「裾野産業」「裾野技術」として。今後もこの仕組みの市場は拡大していく見込みだ。
【参考】関連記事としては「自動運転レベル3の「油断の罠」に挑む技術者たち」も参照。