
自動運転に関する死亡事故は、2021年1月時点でアメリカでこれまでに3件発生している。テスラが2回、ウーバーが1回起こしている。日本では自動運転車による死亡事故は起きていないが、実証実験が盛んになった2019年以降、少なくとも4件の事故や接触事案が起きている。
この記事では、人的ミスが原因となった事案を含め、自動運転車や自動運転バスが起こした過去の主な事故の事例をまとめて紹介する。
■海外での事例
2016年2月14日:Googleの自動運転車が路線バスと衝突
2016年2月、アメリカのカリフォルニア州マウンテンビューの公道で、米グーグルが開発中の自動運転車が路線バスと接触する事故を起こした。カリフォルニア州には米グーグル本社があり、グーグルのお膝元で起きた事故とも言える。
事故を起こした開発中車両のベース車種は、トヨタの多目的スポーツ車(SUV)「レクサス」のRX450h。路肩の砂袋を検知したことによって自動運転車は一時停止し、その砂袋を避けて前進するために左方向に車両を動かしたとき、後ろから走行してきたバス車両の側面にぶつかったという。
カリフォルニア州の発表などによれば、グーグル側の自動運転車は時速にして3キロ以下、後ろから走行してきたバスは時速24キロだった。自動運転車の運転手にもバスの乗客15人にもけがはなかった。
グーグルは当時、2017〜20年の実用化を目指して事故を起こした車両を開発していた。グーグル側は自動運転車側の過失を認めており、事故防止に向けてソフトウェアを交換する方針などを明らかにした。グーグルは過去にも自動運転車で事故を起こしていたが、過去の事故ではもらい事故や運転手の判断ミスによるものだった。
2016年5月7日:テスラ車で部分自動運転モード中に死亡事故
電気自動車(EV)メーカーの米テスラモーターズの電気自動車「モデルS」が、2016年5月に死亡事故を起こしている。この事故では自動運転モードで米フロリダ州のハイウェイを走行していた車両が大型トレーラーに衝突し、運転していたドライバーが死亡したというものだ。
アメリカ国家運輸安全委員会(NTSB)の報告などによると、信号のない交差点で白いトレーラートラックの下に潜り込むような状態で車両が衝突したという。テスラモーターズによれば、日差しが強さやトレーラーの白い色が要因となり、自動運転のシステム側がトレーラーを「物体」として認識できなかったようだ。
国家運輸安全委員会によれば、ドライバーは事故当時は「部分的な自動運転システム」を稼働させて走行していたようだ。しかし、実際には手を添えていなければいけなかった37分間のうち、ドライバーは25秒間しかハンドルを手で触っていなかったことが明らかになっている。システム側はドライバーに対しても、ハンドルを握るよう警告を7回出していたという。
テスラはその後、2016年9月に警告にドライバーが反応しなかった場合は自動運転機能を使用不可にするなどの仕様変更を発表している。また国家運輸安全委員会は、車自体には欠陥がなかったと結論づけた。
【参考】アメリカの死亡事故とは単純比較できないが、日本の国土交通省自動車局は2018年3月に自動運転における損害賠償責任に関する研究会の「報告書」を取りまとめているので参照してみてほしい。自動運転モード中の事故の損害賠償をどう考えるかなどに触れられている。
2018年3月18日:ウーバー車が自動運転中に歩行者と死亡事故
アメリカのライドシェア最大手であるウーバーテクノロジーズ社の自動運転車が2018年3月18日、自転車を押しながら車道を渡っていた49歳の歩行者を時速約64キロではねて死亡させる事故をアリゾナ州で起こした。
事故は自動運転車が自動運転システムを稼働させていたときに発生した。当時は運転席には自動運転システムの稼働状況を監督する「人」も同乗していた。この事故を受け、ウーバーテクノロジーズ社は北米4都市の公道での走行試験を中断した(その後、2018年12月に実証実験を再開している)。
この死亡事故は、自動運転において世界で初めて歩行者を死亡させた事故と位置付けられている。この事故でウーバーテクノロジーズ社と死亡した女性の遺族はその後和解したものの、自動運転の安全性に対する厳しい目も世論から向けられたと言える。
この死亡事故に関しては、米道路安全保険協会(IIHS)が2018年10月、ベース車両に使われていたボルボ社の安全システムが解除されていなければ事故を回避できた可能性がある、という見解を示している。
ウーバーは自社の自動運転システム自体も自動ブレーキ機能を備えていることから、事故時はボルボの自動ブレーキ機能を無効にしていたことを明らかにしている。その理由については「車両の動作が不安定になることを防ぐため」と説明された。
また、運転手が事故発生直前に携帯電話でテレビ番組を視聴していたことなども明らかになっている。
【参考】関連記事としては「ウーバーの自動運転車死亡事故、車両の自動ブレーキ機能オンで防げた可能性 アメリカ道路安全保険協会が見解」も参照。
自動運転事故は「人災」で起きる ウーバー死亡事故で「自動ブレーキ」を無効にしたのはAIじゃない|自動運転ラボ https://t.co/z2vCDgzEXC @jidountenlabさんから
— 自動運転ラボ (@jidountenlab) August 10, 2018
2018年3月23日:テスラEVが2件目の自動運転モード中の死亡事故
2018年3月23日、ウーバーテクノロジーズ社の車両が死亡事故を起こしてから1週間が経たない間に、アメリカの電気自動車(EV)メーカーであるテスラの電気自動車「モデルX」が米西部カリフォルニア州の高速道路で衝突事故を起こした。
事故では車両が高速道路の中央分離帯に衝突し、運転していた38歳の男性が死亡した。その後の調べによれば、事故当時は部分的な自動運転機能が作動しており、車線の逸脱や車間距離の保持がシステム側によって行われていたという。
だが事故後に明らかになった車両の記録データでは、事故の6秒前にシステム側が運転手に対してハンドルを握るように、警告を発していたようだ。事故発生までの間、死亡した男性がハンドルを握ることは無かったようだ。
テスラの自動運転モード中の死亡事故は2016年5月に続いて2度目。2018年3月にウーバーテクノロジーズとテスラの立て続けに起きた死亡事故は、そのほかのメーカーの自動運転車の実証実験などにも大きな影響を与えるニュースとなった。
【参考】関連記事としては「テスラの半自動運転死亡事故、原因「視線監視機能の不備にも」 米運輸安全委が発表」も参照。
テスラの半自動運転死亡事故、原因「視線監視機能の不備にも」 米運輸安全委が発表 https://t.co/XXnyXT3tu8 @jidountenlab #テスラ #自動運転 #死亡事故
— 自動運転ラボ (@jidountenlab) February 29, 2020
■国内での事例
2019年8月26日:名古屋大学が所有する「ゆっくり自動運転」車両が接触事故
自動運転の実証実験を控えて試験走行していた名古屋大学所有の低速自動運転車が、2019年8月26日の午後2時20分ごろ、時速約14キロで市道を自動運転走行中に後ろから追い越してきた車両と接触した。この事故によるけが人などは出なかった。
試験走行には名古屋大学が所有する「ゆっくり自動運転」車両が使われており、一般車両が低速自動運転車両を右側から追い越そうとしたとき、低速自動運転車両が右側に寄ったことで衝突に至った。
事故の原因については事故検証委員会の報告書で触れられており、自動運転車両の位置・方位検知機能が進行すべき方位を誤検知したことが直接的な原因とされている。これによって誤った急操舵が生じたようだ。
報告書ではリスクアセスメント水準の低さや実験実施体制の不備などにも触れられており、再発防止策としては車両実験審査体制の強化などが挙げられた。
【参考】関連記事としては「豊田市の自動運転事故のなぜ 事故検証委の報告内容を考察」も参照。
豊田市の自動運転事故のなぜ 事故検証委の報告内容を考察 センサー遅延などで検知探索機能が誤作動 https://t.co/z80jfVSHvz @jidountenlab #自動運転 #事故 #原因
— 自動運転ラボ (@jidountenlab) December 2, 2019
2020年3月10日:BOLDLYの自動運転バスが都内で物損事故
ソフトバンク子会社のBOLDLY(2020年4月にSBドライブから社名変更)は2020年3月、自動運転バスの試験走行中に物損事故を起こしている。試験走行で使用されていたのは仏Navya社製の自律走行車両「NAVYA ARMA」で、東京・丸の内仲通りのバス停に停車する際、路上駐車の乗用車に接触した。この事故による負傷者はいなかった。
BOLDLYによると、自動走行中のバスを停車させる際に運転者は駐車車両への接近を認知し、手動走行への切り替えを行ない、これとほぼ同時に車両に搭載されたLiDARも駐車車両を検知したが、手動走行のためシステムによるブレーキが無効となった。
運転者は緊急停止命令を入力し、車両の減速が開始されたが間に合わず、駐車車両に接触したという。手動操作への切り替えから接触までは1.3秒だったという。
【参考】関連記事としては「ソフトバンク子会社の自動運転バス、都内で物損事故 手動走行へ切り替え後に」を参照。
ソフトバンク子会社の自動運転バス、都内で物損事故 手動走行へ切り替え後に https://t.co/5jZDrlo5JF @jidountenlab #ソフトバンク #自動運転 #事故
— 自動運転ラボ (@jidountenlab) March 26, 2020
2020年8月30日:産総研の実証実験で接触事案、運転手の判断ミスが要因
2020年8月に滋賀県大津市内で「産業技術総合研究所」(産総研)が行った中型自動運転バスの実証実験では、車両Uターンのために右旋回する際、車体左前のセンサーカバーが歩道柵の支柱部分に接触する事案が起きた。けが人はいなかった。
接触事案が発生した地点はやや特殊な形の丁字路で、転回中は極低速(時速4キロ以下)の自動運転を行なっていたが、転回が完了する前に歩道柵との間隔が狭くなると運転手が判断し、手動運転に切り替えた。運転手は自らの操作で転回するため前進したが、結果として歩道柵に接触したという。
この事案では、手動運転への移行のタイミングやGPSの精度、自動運転システムに異常は認められなかったとして、最終的に運転手の車幅感覚の判断ミスが要因とされた。
【参考】関連記事としては「接触8秒前に手動介入、運転手の判断ミスが要因 自動運転バスの接触事案」も参照。
接触8秒前に手動介入、運転手の判断ミスが要因 自動運転バスの接触事案 https://t.co/CfUZFHjYwd @jidountenlab #自動運転 #接触事案 #調査
— 自動運転ラボ (@jidountenlab) September 17, 2020
2020年12月14日:再起動忘れが原因で自動運転バスがガードレールに接触
茨城県日立市内のひたちBRT路線で産総研が行った中型自動運転バスの実証実験で、2020年12月にガードレールと接触する事案が起きている。自動運転バスが時速30キロで直進区間を自動走行中、ハンドルが急旋回し、バスの右前方部分がガードレールに接触したというものだ。一般乗客は乗車しておらず、けが人はいなかったという。
ハンドルが急に切られた際、運転手は速やかに介入し手動制御したが間に合わなかったという。接触事案の原因は車両の位置推定機器の再起動忘れで、車両に搭載されているGNSS(衛星測位システム)方式と、磁気マーカー方式を用いる2つの機器が上手く切り替わらず、道路での車両の位置や方向に関する情報が更新されなかったことにより、ハンドルが急旋回したという。
この事案を受け、産総研は直接的な原因となった機器に再起動を促す表示を出すこと、自動運転システムによるハンドル操舵量の指示や制限を行うなどの対策を行うとしている。
【参考】関連記事としては「自動運転バスの接触事案、位置推定機器の再起動漏れが要因」も参照。
自動運転バスの接触事案、位置推定機器の再起動漏れが要因 https://t.co/rTLA8x3OUl @jidountenlab #自動運転 #バス #事故 #要因
— 自動運転ラボ (@jidountenlab) December 30, 2020
■【まとめ】事故を教訓に技術レベルの向上を
人間による運転の事故率より自動運転での事故率が低くなれば、安全面で自動運転の方が優位に立つ。ただそのためにはさまざまな走行環境での実証実験や検証が欠かせない。実証実験中の事故を最大限防ぐ努力をしつつ、事故を教訓にさらに技術レベルを高めることが各社には求められる。
(初稿公開日:2018年4月29日/最終更新日:2021年1月22日)
【参考】関連記事としては「【最新版】自動運転車の実現はいつから?世界・日本の主要メーカーの展望に迫る|自動運転ラボ」も参照。