自動運転、ヒューマンエラーによる事故パターン(2023年最新版)

安全要員の判断ミスや過失、機器類の点検不足…



国内外で社会実装が進み始めている自動運転技術。交通事故を減らし、また人手不足を補う技術として早期普及に期待が寄せられている。


実用化が始まったばかりの現在においては、自動運転システムは未完であり、まだまだ改良の余地がある。実用実証を通じて精度を高めていく段階にあると言えるだろう。

一方、自動運転システムそのものの精度とは別に注意を払いたいのが「ヒューマンエラー」だ。自動運転とはいえ、レベル4以下においては人が介在すべき場面は思いのほか多い。

この記事では2023年時点の情報をもとに、自動運転におけるヒューマンエラーについて解説していく。

<記事の更新情報>
・2023年9月15日:e-Palette事故に関する調査報告書について追記
・2021年9月11日:記事初稿を公開


■自動運転実証におけるヒューマンエラー
セーフティドライバーによる過失

公道における自動運転実証は、基本的にセーフティドライバー同乗のもと行われる。法律における規制の意味合いが大きいが、万が一の際にすぐ対応できるよう、自動運転走行中もセーフティドライバーが随時周囲を監視しているのだ。

これは実質レベル2の運転となり、人が直接運転操作に関わることになる。人の関わりが多ければ多いほどヒューマンエラーも起きやすく、海外では最悪のケースも発生している。米Uberの自動運転テスト車両が2018年3月に米アリゾナ州で引き起こした死亡事故だ。

調査の結果、セーフティドライバーがスマートフォンを注視し、周囲の状況監視を怠っていたことが事故の要因とされ、ドライバーは過失致死罪で訴追されている。加えて、自動ブレーキ機能がオフになっていたことも明らかとなっている。

人為的なミスではなく、完全な過失だ。Uberはこの事故により自動運転実証の中止を余儀なくされるなど、開発にも大きな影響を及ぼした。


このドライバーが正規のオペレーターなのかどうかはわからないが、自動運転技術に対する過信や慢心、ひいては業務に対する怠慢があったことはほぼ間違いなく、オペレーターに対する基本的な教育の必要性を物語る事故となった。

【参考】Uberの事故については「自動運転車の死亡事故、「人間」を訴追 AIに運転任せ動画視聴」も参照。

セーフティドライバーの操作ミスや判断ミス

セーフティドライバーが毅然と業務に臨んでいても、人間である限りミスは付きものだ。自動運転で走行中、センサーが「何か」を検知して停止した場合、セーフティドライバーはその「何か」を確認し、安全を確保した上で自動運転を継続するか運転操作を引き継ぐかを判断しなければならない。

また、自動運転システムが見過ごしそうな「何か」を事前に察知し、あらかじめ手動運転に切り替えるなどの措置が求められる場合もあるだろう。

この判断にはシビアな面が内在する。自動運転の実証である以上、可能な限り自動運転システムに対応させるべきという側面と、万が一を考慮して石橋を叩いて渡るかのごとく手動運転で対応しなければならない側面を合わせ持っているのだ。

自動運転で走行中、前方に何らかの障害物を検知し、自動運転車が回避行動を行う際、その回避が際どいケースがある。十中八九避けられるが、もしかすると……といった際、セーフティドライバーは手動に切り替えるべきかどうかの判断を迫られる。

こうしたケースは障害物に近接するまで判断できない場合があり、瞬時の判断を求められることも多いが、瞬時ゆえ間に合わず障害物と接触してしまう事案は意外と多い。

BOLDLYが東京都内で2020年3月に実施していた実証では、仏Navya製の自動運転バス「NAVYA ARMA」がバス停に停車する際、路上駐車の乗用車に接触した。

セーフティドライバーは事前に駐車車両への接近を認知し、手動走行への切り替えを行なった。ほぼ同時に車両に搭載されたLiDARも駐車車両を検知したが、手動走行に切り替えたためシステムによるブレーキが無効となり、接触してしまったようだ。手動操作への切り替えから接触まではわずか1.3秒だったという。

【参考】東京都内で発生した事案については「ソフトバンク子会社の自動運転バス、都内で物損事故  手動走行へ切り替え後に」も参照。

一方、トヨタは東京2020パラリンピック開催期間中の2021年8月、選手村で自動運転EV「e-Palette」を活用して関係者の送迎を行うサービス実証を行っていたが、交差点で日本人選手と接触する事故が発生した。

交差点に進入する際、センサーが人を検知して車両を停止させた。セーフティドライバーと交差点の誘導員が安全を確認した上で再度出発したところ、別の人と接触したようだ。ドライバーらの確認・判断・連携に問題があったとされ、その後、事故調査委員会による調査が行われた。

その調査の結果が報告書として2023年9月に公表された。「人為的ミス」が重なったことが原因とされ、自動運転システムに関しては問題がなかったが、複数の要因が複合的に結びついて事故に至った経緯が説明されている。

事故・事案を100%回避することはまず不可能だが、自動運転と手動運転が入り混じる実証特有の案件をしっかりと精査・マニュアル化し、また可能な限り他社とも情報を共有し、今後も考えられるヒューマンエラーを一つずつ確実につぶしていく地道な作業が求められるところだ。

遠隔オペレーターによるヒューマンエラー

技術が高度化すると、車内を無人にした上で遠隔操作・監視による実証が行われる。この場合もオペレーターにはセーフティドライバーと同様の義務が課せられるが、車内にいる場合と遠隔地にいる場合では勝手が異なる。

遠隔オペレーターはカメラ越しで視界を確保し、わずかとはいえ通信遅延を想定したオペレーションを行わなければならない。可能な限りカメラで視界を確保しているものと思われるが、首を動かしながら実際に自分の目で見る場合と映像で見る場合の相違は大きい。

場合によっては、交差点で小さな子どもを検知し自動運転車が停止したものの、カメラ画像からは把握できずGOサインを出してしまうようなケースも考えられる。些細な点も見過ごさないよういっそうの注意を払わなければならない。

また、万が一事故・事案が発生した際は、即座に現場に駆け付けて対応するためのオペレーションも必要となる。多くの場合は手動運転車が随行しているものと思われるが、こうした部分における連携も必要不可欠だ。

現場の人員が原則不在となる遠隔型が抱える問題は、レベル4サービス実装時の問題に直結する。実証時のマニュアル化により、早い段階でヒューマンエラーを無くしていかなければならない。

■ハードウェア面の整備・メンテナンスにおけるヒューマンエラー

自動運転車においても、日常的な整備・メンテナンスは不可欠だ。無人走行を想定すると、走行中の異変に気づきにくいため、よりいっそう事前点検の重要性が増すことになる。

自動運転に直結する整備としては、センサー類の点検が挙げられる。機器そのものの故障はもちろん、センサー表面の汚れやわずかな設置角度のずれなどは誤検知につながるため、走行前に必ず確認しておきたいポイントだ。

また、多くの面で電子制御化が図られ、ソフトウェアによる制御や遠隔管理などが可能となるが、例えばタイヤ表面の異変にセンサーが気付くとは限らない。空気圧などは常時監視しているものと思われるが、わずかに刺さったくぎが見落とされることも考えられる。走行スタート時に問題なくとも、走行中に突如パンクする可能性があるため、しっかり目視による点検を行わなければならない。

■ソフトウェアの管理・メンテナンスにおけるヒューマンエラー

自動運転車はソフトウェアのかたまりであることは言うまでもなく、プログラムにおけるヒューマンエラーは実証で確実につぶしていかなければならない。また、ソフトウェアそのものに異常が発生していないかを正確に検知するシステムなども必要不可欠となる。

こうしたソフトウェア管理は、一度完成すれば全てが自動化されるかといえば、必ずしもそうではないようだ。適時初期化が必要だったり、アナログ的に使用するソフトウェアを選択したりする場面なども考えられる。ソフトウェアのアップデートは自動化されているが、正しくアップデートされたかを確認する必要はある。人の手を要する場面は多かれ少なかれ存在するのだ。

茨城県日立市内のひたちBRT路線で産総研が2020年12月に実施した中型自動運転バスの実証実験における事案は、まさにこの種の例にあてはまる。

自動運転バスが時速30キロで直進区間を自動運転で走行中、ハンドルが急旋回し、バスの右前方部分がガードレールに接触したのだ。運転手は速やかに手動介入したものの間に合わなかった。

原因は車両の位置推定機器の再起動忘れだった。再起動を怠ったため、車両の位置を推定するGNSS(衛星測位システム)と磁気マーカーの2つの機器が上手く切り替わらず、道路での車両の位置や方向に関する情報が更新されずハンドルが急旋回したという。

機器の再起動を忘れるという点はハードウェア寄りの話ではあるが、そのミスによってソフトウェアが正しく使えず、道路での車両の位置や方向に関する情報が更新されていなかったという意味では、ソフトウェアにも起因する接触事案だったと言える。

実証が一段階高度化して無人運転が増加すると、セーフティドライバーによるエラーの代わりにこうしたヒューマンエラーが増加する可能性がある。ソフトウェア関連は複雑なだけに、より細やかなマニュアル化が必要になりそうだ。

【参考】日立市における事案については「自動運転バスがガードレールと接触 運行中にハンドルが急旋回」も参照。

■サービス実装期のヒューマンエラー

実証も一段落してサービス実装期を迎えると、運行に関わる各種操作・管理をはじめ、自動運転車の日常点検なども開発者サイドからサービス事業者サイドに移行していくことが考えられる。高度な専門性を要するものは別として、ある程度の作業は運行事業者に移行されるのだ。

専門性を有しない事業者が各種オペレーションを行う際、オペレーターの教育とマニュアル化の重要性は飛躍的に増す。一定の座学や実践を通じて知見を蓄えていくほかなく、想定外の事態に見舞われた際の対応策なども必要となってくる。

ヒューマンエラーはこうした場面で突如顔をのぞかせる。一定の教育を受けた多くの者がオペレーターとして活躍できる環境の構築は、ヒューマンエラー対策に掛かっているといっても過言ではない。

突如センサーが反応しなくなった場合、通信が途切れた場合などさまざまなケースを想定し、その後のヒューマンエラーにつながらないようしっかりと対応策を共有することが必要となる。

レベル3でも懸念されるヒューマンエラー

「条件付き運転自動化」を指す自動運転レベル3においても当然ヒューマンエラーは懸念される。特に自家用車におけるレベル3だ。ホンダ・レジェンドを皮切りに量産車への搭載が加速し始めている。

レベル3は、「好天時の高速道路において時速50キロ未満で走行時に自動運転可能」といった具合で定められた運行設計領域(ODD)において自動運転を可能とする。また、走行環境がODDを外れるなど自動運転が不可能となった際は、ドライバーは速やかに手動運転を行わなければならない。

自家用車におけるレベル3のオペレーターは、当然一般ドライバーが担うことになる。自動運転に対して専門性がなく、特別な教育を受けていない一般ドライバーが管理を行うのだ。

レベル3による自動運転中、ドライバーは運転操作や周囲への常時監視義務を免れる。しかし、システムの要請に基づき直ちに運転操作に戻れる状態でなければならない。

ここにレベル3特有のヒューマンエラーが存在する。ドライバーに課せられた義務を正しく理解せず、自動運転中に就寝したり、運転席を離れたりする根本的なエラーだ。その結果、自動運転システムからの手動運転要請に適切に応えられず、事故を引き起こす懸念が問題視されている。

こうしたヒューマンエラーに対しては、ドライバーモニタリングシステム(DMS)で常時ドライバーを監視し、眠ってしまった際や運転席を離れた場合は警告を発し、従わない際は安全に自動車を停止させるミニマル・リスク・マヌーバー(MRM)機能などで対応する。

海外では高度なレベル2搭載車両においてもこうした事例が発生しており、ハンズオフ運転を可能とするADASにおいてもDMSやMRMなどの搭載に期待が寄せられるところだ。

【参考】関連記事としては「自動運転レベル3の「油断の罠」に挑む技術者たち」も参照。

■【まとめ】レベル4でも人の介入は必須、正しい理解でヒューマンエラー根絶を

自動運転におけるヒューマンエラーのケースは挙げればきりがないほど存在する。レベル5を達成するころには大部分が解消されているものと思われるが、少なからずレベル4においては人が介入すべき場面は思いのほか多く存在するのだ。

開発事業者は、自動運転システムの精度を高めるとともに、こうしたヒューマンエラーを防ぐ仕組みも考えていかなければならない。

また、レベル3の要件をはじめ、歩行者ら交通関係者に広く自動運転への正しい理解を浸透させることも肝要だ。自動運転は決して100%事故を防ぐものではなく、かつヒューマンエラーも内在していることを理解し、その上で社会実装に前向きに協力し、技術やサービスの向上を後押ししてもらいたい。

【参考】関連記事としては「自動運転とは?技術や開発企業、法律など徹底まとめ!」も参照。

■関連FAQ
    自動運転車でもヒューマンエラーは起こる?

    システムと人間が役割分担をするケースでは、ヒューマンエラーが事故の原因となり得る。

    セーフティドライバーによる過失が発生する場合は?

    本来であればセーフティドライバーが自動運転車の挙動を監視しなければならないケースで、セーフティドライバーがその業務を怠った場合、事故に結び付くケースがある。

    遠隔オペレーターによるヒューマンエラーのケースは?

    例えば、遠隔オペレーターが高速通信を使って自動運転車を手動で動かず場合、普通の自動車の運転と同様、前方不注視などによる事故が発生するリスクが伴う。

    運転以外の面におけるヒューマンエラーは?

    例えば、自動運転車のパーツを交換すべきなのにしていなかったり、人間が設計したソフトウェアに脆弱性やエラー箇所があったりすると、事故などのトラブルに結びつく。

    「自動運転レベル5」でもヒューマンエラーは起きる?

    やはり完全ゼロにはならない。レベル5の自動運転車であっても、運転操作は基本的にはシステム・AIが担うものの、ハードの製造やソフトの開発、メンテナンスなどは人間が行い、監視業務の一部も人間が担うからだ。一方、ヒューマンエラーに起因する事故やトラブルが発生する確率はかなり下がる。

(初稿公開日:2021年9月11日/最終更新日:2023年9月15日)

記事監修:下山 哲平
(株式会社ストロボ代表取締役社長/自動運転ラボ発行人)

大手デジタルマーケティングエージェンシーのアイレップにて取締役CSO(Chief Solutions Officer)として、SEO・コンテンツマーケティング等の事業開発に従事。JV設立やM&Aによる新規事業開発をリードし、在任時、年商100億から700億規模への急拡大を果たす。2016年、大手企業におけるデジタルトランスフォーメーション支援すべく、株式会社ストロボを設立し、設立5年でグループ6社へと拡大。2018年5月、自動車産業×デジタルトランスフォーメーションの一手として、自動運転領域メディア「自動運転ラボ」を立ち上げ、業界最大級のメディアに成長させる。講演実績も多く、早くもあらゆる自動運転系の技術や企業の最新情報が最も集まる存在に。(登壇情報
【著書】
自動運転&MaaSビジネス参入ガイド
“未来予測”による研究開発テーマ創出の仕方(共著)




関連記事