感情論ではなく「事故率」で評価を 愛知の自動運転事故を考える

世界で過去に発生した事故は?





出典:愛知県豊田市公式発表

8月26日の午後2時20分ごろ、愛知県豊田市内の市道で、名古屋大学が試験走行を行っていた低速自動運転車が、一般車両と接触事故を起こした。警察の調べによると、低速自動運転車両の右側を一般車両が追い越そうとした際、自動運転車両が右側に寄ったことで接触したものとみられている。けが人は出ていない。

この試験走行は、8月29日から31日にかけて実施予定だった実証実験の前段階として実施していたもの。実証実験は市街地の中心部において自動運転車が移動手段としてどれくらい有効かや、歩行者やサイクリスト、車などの周辺の交通への影響を検証するためのものだったが、今回の事故により、実証実験の中止が決まった。







この記事では今回の自動運転の実証実験の枠組みと、世界で過去に発生している自動運転の事故について説明していきたい。

■今回の実証実験の枠組みは?

今回中止となった実証実験は、「クリムト展 ウィーンと日本 1900」に合わせて実施する予定だった。名鉄豊田市駅前から美術館を結ぶ片道約1.3キロの移動手段として低速自動運転車を活用し、その有用性や周辺交通への影響を検証する目的のものだった。

車両は名古屋大学が所有する「ゆっくり自動運転」車両を活用する計画だった。この車両は4人乗りのヤマハ発動機製ゴルフカートをベースに自動運転システムを搭載したものだ。また実証実験では運転席と助手席に人が同乗し、後ろのシートに希望者が同乗して時速約15キロで自動走行する予定だった。

今回活用する予定だった低速自動運転車両は、2018年度に既に実証実験で活用実績がある。

出典:愛知県豊田市公式発表
■「ゆっくり自動運転」とは?

名古屋大学の未来社会創造機構は、「ゆっくり自動運転」の概要を公式サイトで紹介している。公式サイトによれば、コンセプトについては「ゆっくり(時速20キロ以下)で走行することで、人や社会と協調する自動運転を実現」と記載されている。

想定されるサービス領域として、ラストワンマイル・モビリティや巡回バス、シェアリングなどが掲げられており、走行性としては「乗員が違和感をもたない乗り心地」「周囲との親和性が高い挙動」と説明されている。

2018年11月にはこの「ゆっくり自動運転」の公開実証実験が、愛知県豊田市の稲武地区で実施された。名古屋大学COIと豊田市などが共同で実施した形だ。自動運転のデモでは、自律走行での右左折や横断歩道手前での待機などの検証を通じ、安定して走行できることが確認できたと発表されている。

■世界で過去に起きている自動運転事故

日本に限らず言えば、世界では自動運転に関する事故が少なからず起きている。以下、具体的に事故例を紹介していく。

2016年2月:Googleの自動運転車両が路線バスと接触事故

Googleは自動運転技術で世界で最も先端をいく企業の一社と言える。Googleからスピンアウトして設立されたウェイモ(Waymo)は2018年12月に自動運転タクシーの商用サービスをスタートさせており、「世界初」として注目を集めた。

そんなGoogleも過去に自動運転車の走行事故を起こしている。2016年2月のことだ。Googleが本社を構えるカリフォルニア州マウンテンビューで自動運転モードで公道を走行中、一度停止してから発車するときに、後方から走行してきたバスと接触している。

この事故でGoogle側は自社の自動運転車側に過失があったことを認めている。

2016年5月:テスラ車両が自動運転モードで走行中に死亡事故

先ほど紹介したGoogleの自動運転に関する事故では死者は出なかったが、2016年5月には米電気自動車(EV)大手テスラの車両が、自動運転モードで米フロリダ州のハイウェイを走行中に死亡事故を起こしている。

当時は「自動運転レベル3(部分運転自動化)」と呼ばれるレベルの機能をオンにしていたが、車両が大型トレーラーと衝突し、運転していたドライバーが死亡した。

ただこの事故ではドライバーが本来はハンドルに手を添えていないといけなかったが、システム側の警告を無視して手放し運転をドライバーが続けていたことも問題視された。自動運転と呼ばれる技術の場合でも、その技術段階によっては、運転手の行動が事故につながることを世間に知らしめた出来事だったと言える。

2018年3月:ウーバーの自動運転車が歩行者を死亡させる事故

先ほどのテスラの事故はドライバーが亡くなる結果となったが、その後の2018年3月には、米ライドシェア大手ウーバー・テクノロジーズが開発中だった自動運転車が、次は歩行者を死亡させる事故を起こした。この事故では運転手が「念のため」運転席に同乗していたが、死亡事故を回避することはできなかった。

この事故については、調査が進むにつれて「人」側に問題があったことが指摘されるようになった。具体的には、車両に搭載されていた緊急ブレーキ機能が作動する設定になっていなかったことが明らかになっており、ウーバー側は車両の動作が不安定になることを理由に、この機能を停止していたことを認めている。

事実、「自動運転の目」と呼ばれるコアセンサー「LiDAR」(ライダー)」は歩行者と車両が衝突する6秒前にその存在を認知していたが、緊急ブレーキが作動せず、事故に結びついたとされている。

この事故では、安全の確保のために車両に乗っていた女性が事故発生時に携帯電話で動画を観ていたことも明らかになっており、ウーバーの実証実験の実施体制を批判する声も少なからず挙がった。

2018年3月:テスラ車両が2件目の死亡事故

ウーバーが死亡事故を起こした2018年3月、自動運転モードで走行していたテスラ車両が、同社の車両としては2度目の死亡事故を発生させている。自動運転モードで走行中に高速道路の中央分離帯に衝突し、車両のドライバーの男性が亡くなった形だ。

この事故では、システム側が運転手にハンドルを握るよう警告を発していたにも関わらず、運転手がその警告に反応せず、手放し運転を続けたことが事故調査報告書によって明らかになっている。

■注目すべきは自動運転と手動運転の「事故率」の差

自動運転という技術はまだ実用化されていないだけに、一度の事故が社会に与える影響は少なくない。少なからず社会受容性(アクセプランス)の低下に結びつくことも考えられるが、一方で本来重要視すべきは「事故率」だ。事故率を人間の手動運転を比べ、客観的に評価対象の自動運転の安全度を測る必要がある。

この事故率に関しては、2018年3月に開催された自動車技術会主催の技術競技会「自動運転AIチャレンジ」のパネルディスカッションでも、トピックスとして挙げられた。このパネルディスカッションでAI(人工知能)分野の第一人者である松尾豊氏は、自動運転の安全基準作りにおいて事故率の基準を「値」で示す必要性に言及している。

■自動運転事故の責任は誰が負うべきか?

また自動運転による事故が「100%ゼロ」にならない限り、自動運転車の事故の責任の所在や保険商品の設計については議論を続けなければならない。

現在日本では、自動車事故の損害賠償責任は「自動車損害賠償保障法(自賠法)」という法律に定められており、自動車の事故の責任は事故を起こした自動車の所有者が負うことが原則だ。そして自動運転に関してもこのルールを適用することで既に結論が出されている。

■【まとめ】事故原因の検証でより安全度を高く

今回の低速自動運転車両の事故は幸いけが人は出なかった。今後、なぜ事故が起きたのかを検証することで、自動運転技術の安全度はより高まるはずだ。横浜シーサイドラインの自動運転車両の逆走事故でもその後の再発防止策がまとまり、事故につながる可能性はより小さくなった。







関連記事