マレーシアの首都クアラルンプールで2021年5月24日、自動運転で走行中の都市鉄道(LRT)が反対方向から進行してきた試験車両と正面衝突する事故が発生した。乗客200人超が負傷しており、当局が事故原因の究明を進めている。
国内では2019年に横浜シーサイドラインが自動運転中に逆走する事故を起こした。自動車では、テスラ車オーナーによる誤ったADAS(先進運転支援システム)認識による事故の記憶が新しい。
そもそも自動運転における事故はどのようにして起こるのか。この記事では、自動運転における事故要因について解説していく。
記事の目次
■自動運転における事故類型
交通事故は、大きく「人的ミス」「インフラの欠陥」「システムのバグ・欠陥」「ハードウェアの欠陥」「その他」に分けられるが、これは自動運転でも同様だ。特に前の3つは、自動運転特有の事故要因を含む。
自動運転関連における人的ミスは、レベル3ではシステムからの運転要求に対し正常な引き継ぎを行わず事故に至るケースや、レベル4における遠隔監視で注意義務を怠り、必要な操作指示や対応を行わなかったことに起因する事故、本来不必要な手動介入を行ったことで発生した事故、設定ミスによる事故などが挙げられる。初期段階における自動運転では、特にこうした人的ミスが存在しそうだ。
【参考】関連記事としては「自動運転レベル3の「油断の罠」に挑む技術者たち」も参照。
インフラの欠陥は、道路の陥没といった物理的な欠陥をはじめ、自動運転ではV2I(路車間通信)や高精度3次元地図データの欠陥など、デジタルインフラとなるデータの欠陥なども含まれることになりそうだ。
システムのバグ・欠陥は、ソフトウェアのバグなどが相当する。自動運転システムの肝と言うべき要素で、開発者サイドにとっては最も神経質になる部分だ。センサーの誤検知やAI(人工知能)の誤判断、誤制御など、さまざまな要因が考えられる。通信障害による事故は、デジタルインフラの欠陥に起因するものとシステムの欠陥に起因するものに分けられそうだ。
ハードウェアの欠陥は、ブレーキやタイヤなど自動車そのものの欠陥をはじめ、自動運転車ではカメラやLiDARといったセンシングデバイスの物理的な欠陥も考えられる。その他は、いわゆる「もらい事故」など自車やドライバーに起因しない上記以外の事故を含む。
自動運転による事故が発生した際、自動運転システムの根幹をなす「システムのバグ・欠陥」が真っ先に注目され、最悪の場合「自動運転による事故」という言葉が独り歩きしてしまうが、事故調査委員会などの調査結果をもとに事故要因に注目して原因を読み取ると、システム以外を要因とする事故が意外に多いことに気付く。
マレーシアの事故は?
各種報道によると、マレーシアのLRTで発生した事故は、自動運転中の車両が時速40キロで走行中、進行方向から試験車両が時速20キロほどで向かってきたため、緊急ブレーキを作動したものの間に合わず正面衝突したようだ。
事故原因は調査中だが、当局は制御センターと試験車両間で連絡ミスがあった可能性に言及しているそうだ。これが事実であれば、まず人的ミスの可能性が疑われる。場合によっては、通信インフラやソフトウェアの欠陥に起因することも考えられそうだ。
■自動運転車によるこれまでの事故
インフラの欠陥による事故
横浜シーサイドラインは2019年6月、始発駅で折り返し発車予定の列車が逆走し、線路終端部の車止めに衝突する事故を起こした。
運輸安全委員会の報告によると、1両目にある機器室内でモーター制御装置へ進行方向を指令するF線が断線しており、このため進行方向を転換する指令が伝わらず、折り返すことなく以前の進行方向を維持してしまったようだ。
これはインフラの欠陥、あるいはハードウェアの欠陥と言える。
【参考】シーサイドラインの事故については「ケーブル断線が原因か シーライドラインの自動運転逆走事故」も参照。
ケーブル断線が原因か シーライドラインの自動運転逆走事故 https://t.co/u6sT2FMOOs @jidountenlab #自動運転 #逆走 #事故
— 自動運転ラボ (@jidountenlab) February 27, 2021
システム関連のバグによる事故
システム関連のバグでは、名古屋大学の低速自動運転車が2019年8月、愛知県豊田市の公道を走行中に後ろから追い越してきた車両と接触する事故を起こしている。後続車が追い越す際、自動運転車が急に右にハンドルを切ったため接触した。
事故検証委員会は、自動運転車両の位置・方位検知機能が自車進行方向を実際の進行方向より左側に誤検知したため、正しい進路に戻そうと急操舵したとしている。言葉は悪いが、自動運転ならではの事故と言える。
【参考】名古屋大学の事故については「豊田市の自動運転事故のなぜ 事故検証委の報告内容を考察」も参照。
豊田市の自動運転事故のなぜ 事故検証委の報告内容を考察 センサー遅延などで検知探索機能が誤作動 https://t.co/z80jfVSHvz @jidountenlab #自動運転 #事故 #原因
— 自動運転ラボ (@jidountenlab) December 2, 2019
人的ミスによる事故
茨城県日立市内のひたちBRT路線で2020年12月に行われた中型自動運転バスの実証実験では、バスが急旋回してガードレールに接触する事案が起きている。ドライバーが速やかに手動制御を試みたが間に合わなかった。
上記の文章だけを見るとシステムのバグが疑われるが、調査の結果、走行前に必要とされている車両の位置推定機器の再起動が行われていなかったことが原因だった。
バスは自己位置推定にGNSS方式と磁気マーカー方式の2種を用いているが、再起動しなかったことにより2つの機器の切り替えに不具合が発生したようだ。
【参考】日立市での事故については「自動運転バスの接触事案、位置推定機器の再起動漏れが要因」も参照。
自動運転バスの接触事案、位置推定機器の再起動漏れが要因 https://t.co/rTLA8x3OUl @jidountenlab #自動運転 #バス #事故 #要因
— 自動運転ラボ (@jidountenlab) December 30, 2020
■ADAS関連の事故は?
自動運転関連の事故でたびたび話題になるのが、米テスラ車による事故だ。正しくは自動運転ではなくADASであり、オーナーの誤った認識のもと引き起こされる事故が多い。
テスラのADAS「Autopilot」はレベル2に相当し、ドライバーは常時運転監視義務を負う。しかし、誇張気味の宣伝ゆえか、あるいはADASの限界に挑戦しようとするチャレンジ精神ゆえか、前方監視を怠りハンドルを握らないドライバーがたびたび話題(問題)となっている。中には、高速道路を居眠りしながら走行するドライバーもいるようだ。
2021年4月には、運転席無人状態と思われる衝突死亡事故が発生した。テスラによると事故当時Autopilotは使用されていなかったというが、いずれにしろドライバーは運転におけるすべての責任を負うため、人的ミスに他ならない。ADASの高度化に伴う特有の事故でもあり、今後他社のレベル2やレベル2+搭載車においてもさらなる注意・啓発が必要になりそうだ。
【参考】テスラ車の事故については「自動運転開発で求められる「性悪説」 テスラ死亡事故から考える」も参照。
自動運転開発で求められる「性悪説」 テスラ死亡事故から考える https://t.co/zMGGkP84PH @jidountenlab #自動運転 #システム #テスラ #死亡事故
— 自動運転ラボ (@jidountenlab) April 24, 2021
■【まとめ】自動運転による事故は要因をしっかり把握しよう
自動運転による事故は何かと話題になりやすいが、実際は自動運転システム以外のものに起因したケースが多く、しっかりと要因を捉えたうえで自動運転に対する正しい認識を持ちたいところだ。
今後、自動運転技術が進展すると、セーフティドライバーに起因する事故が減少し、代わってより高度で複雑な環境下におけるシステムバグによる案件が増加する可能性があるが、これは自動運転システムの進化の過程とも言える。
自動運転に「悪者」のイメージを持たせないためにも、開発者のみならず第三者もしっかりと要因を把握するとともに、一歩一歩着実に前進する研究開発を温かい目で見守ることが大事だ。
【参考】関連記事としては「自動運転車の事故まとめ UberやTeslaの死亡事故、日本の事例も解説」も参照。