米ワシントン・ポストの分析によれば、テスラのADAS(先進運転支援システム)である「AutoPilot」が関わる事故は2019年以降に736件発生し、それらの事故で17人が死亡していることが明らかになった。
これは米国内における事故件数・死亡者数。ワシントン・ポストは米国家道路交通安全局(National Highway Traffic Safety Administration)のデータを分析した。同紙は「a lot more than previously reported(これまでの報告よりずっと多い)」としている。
事故件数が増えた理由としては、展開している車両数が増えたことも考えられるが、ジョージ・メイソン大学の自動化・ロボティクスに関する安全専門家であるMissy Cummings氏は「フルセルフドライビング技術の使用拡大」が要因として挙げられるとしている。
【参考】関連記事としては「ADASとは?(2023年最新版)」も参照。
■レベル2の責任はドライバーにあるが…
AutoPilotは自動運転レベル2の技術であり、運転の責任はあくまでドライバーにある。そのため、そもそもAutoPilotが関わる事故の全てをテスラの運転支援技術のせいにすることはできない。
また米メディアの記事では、ほかの自動車メーカーが展開しているレベル2のシステムが関わる事故件数との比較も行われていないため、テスラのAutoPilotに対する評価を現時点で行うのは難しい。
ただし、「AutoPilot」はその名称から、自動運転が可能なシステムだと誤解を招く可能性がこれまで指摘されており、当局はテスラに対して名称の再検討を働きかけてきた経緯があり、ドライバーの誤解が事故につながっているケースも少なからずある可能性が高い。
【参考】関連記事としては「自動運転レベルとは?(2023年最新版)」も参照。
■過去に起きたAutopilot絡みの事故の実例
テスラのAutopilotに関しては、作動中に発生した例として報道されている例が複数ある。たとえば2018年3月にカリフォルニア州で発生した死亡事故では、テスラ側はAutopilotが作動していたことを確認したことを後日、公式ブログで明らかにしている。(一方、ドライバーはAutopilotからの警告を無視していたとも説明している)
裁判になった事故もある。2019年にAutopilotを作動中に発生した事故に伴う裁判で、最終的にAutopilotの作動に問題がなかったとの評決が裁判所で下されている。この事故では、街中でAutopilotを作動させないようマニュアルで説明されていたのにも関わらず、ドライバーが街中でAutopilotを作動させたことなどが明らかになった。
このように、Autopilotの事故では運転手側の過失が事故につながったケースも少なくない。
【参考】関連記事としては「テスラ自動運転車の交通事故・死亡事故まとめ 原因や責任は?」も参照。
【参考】関連記事としては「自動運転開発で求められる「性悪説」 テスラ死亡事故から考える」も参照。
■安全性に対する信頼を勝ち取っていけるか
テスラはその注目度の高さゆえ、事故の関するニュースが他の自動車メーカーの同種のニュースより大きく取り上げられがちであり、テスラの技術には一般ドライバーから厳しい目が向けられやすい。
自動車メーカーの技術への信頼度の大部分は、安全性に対する信頼で形成される。厳しい目を向けられるテスラが今後しっかりと関連技術に対する信頼を得ていけるか、注目だ。
【参考】関連記事としては「テスラの自動運転技術(2023年最新版)」も参照。