テスラの半自動運転死亡事故、原因「視線監視機能の不備にも」 米運輸安全委が発表

2018年3月に発生、運転手はスマホゲームに夢中

B!
2018年3月に発生したテスラ車の事故の様子=出典:米運輸安全委員会の予備調査報告書

自動運転社会の実現のために不可欠なこと、それは安全性の確保だ。そのためにいま日本を含む世界各国で実証実験が行われ、法整備も進みつつある。ただ、これまでに自動運転車の死亡事故は発生しており、事故原因の真相究明によって新たな死亡事故の発生を防ぐ取り組みが求められている。

そんな中、米運輸安全委員会(NTSB)が2020年2月28日までに、米電気自動車(EV)メーカーの米テスラの車両が2018年に起こした死亡事故の事故原因を特定したと発表した。事故の概要を振り返りつつ、運輸安全委が指摘する点について解説していこう。

■テスラEVの2度目の死亡事故

死亡事故は2018年3月23日、米北西部カリフォルニア州の高速道路で発生した。テスラの「モデルX」が部分的な自動運転機能を搭載した運転支援システム「オートパイロット」の稼働中、高速道路の中央分離帯に車両が衝突し、運転手の38歳の男性が死亡した。テスラにとって2016年の事故に続く2度目の死亡事故だった。

事故後に明らかになった車両のデータから、運転手は事故当時、携帯電話のゲームアプリで遊んでおり、衝突の瞬間までハンドルやブレーキを操作した形跡はなかったことが分かっていた。

■運転手の依存とシステム不備が要因に

米運輸安全委員会はこの死亡事故の原因の一つとして、運転手が過度に運転支援システムに依存したことによって注意力が低下していたことを指摘した上で、運転手の視線監視システムの不備などを挙げた。さらに、米道路交通安全局(NHTSA)によるテスラへの監督が不十分であったことも指摘している。

また、NHTSAが事故の再発防止に向けて今後とるべき対策についても言及し、前方衝突を回避するシステムの評価基準を強化することなどを求めた。スマートフォン開発各社に対しては、運転中は使用ができないようにする機能を実装する必要性を指摘している。

■自動運転車の過去死亡事故例は3件

2020年2月時点で、自動運転に関する死亡事故はアメリカで計3件起きている。そのうち2件はテスラ車による死亡事故で、もう1件はライドシェア最大手の米ウーバーによる死亡事故だ。

2016年5月にテスラ車による死亡事故

テスラ車は今回調査対象となった死亡事故とは別に、2016年5月に1回目の死亡事故を起こしている。米フロリダ州の高速道路を半自動運転システムで走行中のテスラ車が、信号のない交差点で大型トレーラーに衝突し、運転手が死亡した。

米運輸安全委員会は事故原因を、トレーラーの白い色と強い日差しによってシステムがトレーラーを物体と認識できなかったためと述べ、車自体には欠陥がなかったと報告した。ただ運転手が当時、システム側が警告していたのにも関わらずハンドルを握っていなかったことも問題視した。

テスラはその後、システム側の警告に運転手が反応しない場合には半自動運転機能を使用できないようにする仕様変更を発表している。

2018年3月にはウーバーの実証中に死亡事故

2018年3月にはウーバーの自動運転車が実証実験中に死亡事故を起こした。自転車を押しながら車道を渡る49歳の歩行者をはねて死亡させた事故で、運転席には人も同乗していたが事故発生直前は携帯電話でテレビを視聴していたという。

この事故は自動運転車が世界で初めて歩行者を死亡させた事故となり、自動運転の安全性に対して世間が厳しい目を向けるきっかけにもなった。

この事故に関して米道路安全保険協会(IIHS)は、車両に搭載されていた衝突防止システムが稼働すれば事故を回避できていた可能性があると報告している。報告によれば、ウーバーの自動運転システムには独自の自動ブレーキ機能が備わっており、車両動作が不安定になることを防ぐために衝突防止システムを無効にしていたという。

■【まとめ】運転手の意識改革とシステムの安全性

3件の死亡事故はどれも、システムに対する運転手の過度な依存が事故につながっている。

日本で2020年4月に解禁される自動運転レベル3(条件付き運転自動化)においても、「レベル3の罠」と呼ばれる危険性を危惧する声がある。レベル3では緊急時やODD(運行設計領域)を外れた場合には人が運転を引き継ぐ必要があるが、人がいつも緊張状態を保っていられるのか、という懸念だ。

自動運転レベル5という完全自動運転の実現までは、こうした懸念を十分に念頭に置きながらのシステム開発や法整備が求められる。

【参考】関連記事としては「ついに幕開け!自動運転、解禁日は「4月1日」」も参照。

B!
関連記事