テスラとGoogleが喧嘩?自動運転車の事故でSNS炎上

決算説明会での言及が火種に

B!
テスラのイーロン・マスクCEO=出典:Flickr / Public Domain

テスラとGoogleが喧嘩している?2026年4月22日のテスラQ1決算説明会で起きたことはそれに近い事態だった。イーロン・マスクCEOが説明会の中でWaymo(ウェイモ)のバス事故を引き合いにテスラロボタクシーが渋滞した話を紹介したことで、両社のロボタクシー事業の実態をめぐる議論がSNSで一気に白熱した。

マスク氏が語ったのはオースティンでの出来事だ。「Waymoがバスにぶつかったせいでテスラのロボタクシーが十数台、左折レーンで身動きが取れなくなった」。この発言に対し、WaymoはNHTSA(米国道路交通安全局)の事故報告を引用する形で「バスがWaymoに当たったのであってWaymoがバスにぶつかったのではない」と反論した。

どちらが正確なのか。そしてAIが運転する車同士が道路を共有する時代に、誰が何に対して責任を持つのか。今回の騒動を入り口に、自動運転事故の責任の所在という本質的な問いについて解説する。

編集部おすすめサービス<PR>
自動車保険 スクエアbang!(一括見積もり)
「最も安い」自動車保険を選べる!見直すなら今!
新車定額!リースナブル(車のカーリース)
お好きな車が月1万円台!頭金・初期費用なし!
車業界への転職はパソナで!(転職エージェント)
転職後の平均年収837〜1,015万円!今すぐ無料登録を
タクシーアプリは「DiDi」(配車アプリ)
クーポン超充実!「無料」のチャンスも!
編集部おすすめサービス<PR>
スクエアbang!
「最も安い」自動車保険を提案!
リースナブル
新車が月々2万円から!
パソナキャリア
転職後の平均年収837〜1,015万円
タクシーアプリDiDi
クーポンが充実!「乗車無料」チャンス

■発端は決算説明会で語られた「Waymo×バス×テスラ渋滞」

4月22日のテスラQ1 2026決算説明会で、マスク氏はロボタクシーの現状と課題を語る文脈でこの発言を行った。発言の趣旨はテスラのロボタクシーが最大安全モードで動いているため、不確実な状況では立ち止まってしまうことがあるというものだ。マスク氏はこれを「車が怖がっている」という比喩で表現し、こうした状況を解決することが現在の最大課題だと説明した。

その事例として挙げたのが今回の発言だ。原文でこう述べている。「笑ってしまうような状況があった。オースティンの左折レーンで大量のロボタクシーが身動きを取れなくなった。なぜかといえば、WaymoがバスにぶつかったからだI kid you not(本当の話だ)。Waymoがバスにぶつかっていたので左折できない。十数台かそれ以上のテスラロボタクシーが、バスが動くのを待ち続けているという状況になった」。発言のトーンは比較的軽く、「ちょっと面白いことがあった」という体裁だった。

ただしこの文脈でマスク氏が本来伝えたかったのは「Waymoのせいでテスラが悪い」という話ではなく、自動運転車が不確実な状況で立ち止まるという技術課題の例示だった。しかしWaymoへの言及が事実確認を伴わずに行われたことで、炎上へと発展した。

【参考】関連記事としては「テスラの自動運転「人間の10倍安全」にイチャモン?」も参照。

テスラの自動運転「人間の10倍安全」にイチャモン?

■Waymoの反論

問題はマスク氏の説明がNHTSAに報告されている事故記録と正確には一致しないことだ。Sherwood Newsの調査によると、NHTSAの記録ではオースティンでWaymoが関与したバスとの事故は3件。いずれの事件でもWaymoは停車中であり、バスがWaymoに接触したか、乗客がドアを開けてバスに当たったケースだった。

Waymoのスポークスパーソンは、マスク氏が言及したと思われる事案は2026年2月に起きた別の軽微な接触だと説明した。赤信号で左折レーンに停車中のWaymoに、対向側から左折してきた市バスが前部左側をかすめて立ち往生したという。Waymoによれば、Waymoは自らバックして交差点をクリアし、車両への損傷もなく問題を解決したという。さらにこの事案はNHTSAへの報告義務がなかったため報告もされていないとした。

つまりWaymoの説明では「WaymoがバスにぶつかってWaymoは動けなくなった」ではなく「バスがWaymoに接触してバスが動けなくなったがWaymoは自力で回避した」となり、マスク氏の説明とは事実関係が逆になる。当事者の証言が食い違う中で、独立した記録でどちらが正確かを確認する手段は現時点では限られている。

【参考】関連記事としては「Googleの自動運転、またバスを無視!直らない「欠陥」も参照。

Googleの自動運転、またバスを無視!直らない「欠陥」

■テスラの事故非開示という問題

今回の騒動で改めて注目を浴びたのが、テスラが自社ロボタクシーの事故詳細をすべて非公開にしているという事実だ。テスラはNHTSAへの事故報告において、事故の経緯を記した部分をすべて「企業秘密(Confidential Business Information)」を理由に黒塗りにしている。事故の発生自体や件数・損傷の有無といった基本情報はNHTSAのデータベースで確認できるが、「何がどう起きたか」を示す詳細なナラティブ部分は一切開示されない。

これはWaymo・Zoox・Aurora・Nuroといった他の自動運転企業とは対照的な姿勢だ。これらの企業は事故報告の詳細を公開しており、第三者による安全性の独立的な評価が可能になっている。WaymoはNHTSAへの詳細な報告に加え、複数の研究によって安全性が検証されている。保険会社スイス・リーとの共同研究や、56.7百万マイルの走行データをもとにした研究では、人間ドライバー比で重傷以上のクラッシュが90%削減されていること、V2V(車対車)交差点クラッシュにおけるエアバッグ展開率が91%削減されていることなどが示されている。ただしこれらの研究ではWaymo提供データが使われており、完全に独立した第三者機関による検証とは区別する必要がある。

テスラのオースティンサービスではこれまでに15件の事故がNHTSAに報告されている(2026年3月時点)が、詳細は不明のままだ。2025年7月の事故については、後から入院者が発生していたことが報告の更新によって判明したが、テスラが積極的に広報することはなかったと報じられている。「自社ロボタクシーの安全性は問題ない」と主張しながら詳細データを開示しないという矛盾が、今回の発言を機に改めて話題となった。

【参考】関連記事としては「テスラ、ロボタクシー事故を「黒塗り」で隠蔽?」も参照。

■AI同士の事故、誰が責任を取るのか

今回の騒動が浮き彫りにしたのが「自動運転車同士が関与する事故では誰が責任を持つのか」だ。テスラとWaymoのロボタクシーが同じオースティンの道路を走っている状況は現実のものとなった。両社のAIシステムが互いに相手の動きを読みながら走行する時代において、事故が起きた際の責任の所在は極めて複雑になる。

現状の法的枠組み

米国では現時点で自動運転車の事故に関する包括的な連邦法は存在せず、多数の州が独自に法律を制定している状況だ(テキサス州は2026年5月末に自動運転車両の営業運行に州DMVの許可を義務付ける新規制を導入予定)。一般的には製品責任法の枠組みが適用され、ハードウェアの欠陥・ソフトウェアのバグ・不十分なテストといった要因に応じてメーカーが責任を負う可能性がある。カリフォルニア州では現時点で人間のオーナーまたは運転者が責任を負う仕組みが維持されており、完全無人の場合はメーカーへの製造物責任訴訟となりうる。

欧州では2024年12月8日にEUの新製品責任指令(New PLD、2024/2853)が発効した。これはAIやソフトウェアにも製品責任を拡張するものであり、販売後のソフトウェアアップデートや継続学習によって生じた欠陥にもメーカーが責任を負う内容を含む。ただし各加盟国が国内法に転換して実際に適用されるのは2026年12月9日以降に市場投入された製品からであり、現時点では移行期間中にある。また、2026年8月2日には高リスクAIに安全・透明性基準を定めるEU AI法も本格適用が予定されている。日米欧で法的枠組みが異なる中、グローバルに展開するロボタクシー企業は複数の制度への対応を迫られている。

どのAIが「判断ミス」したのか

今回のオースティンの事案のように、複数の自動運転車が同じ交差点に存在するシナリオは今後さらに頻発する。そこで問われるのは「どのAIがどんな判断をして接触が起きたのか」だ。WaymoのAIとテスラのFSDはそれぞれ異なる学習データ・センサー構成・判断アルゴリズムを持つ。どちらのAIが正しい判断をしたかを外部から評価するには、双方のログデータへのアクセスが必要になる。

しかしテスラは事故データを非公開にしている。Waymoは一定の情報を開示しているが、企業の内部データを訴訟外で公開する義務はない。これは「誰が悪かったか」を判断する材料が著しく不足した状態で事故が処理されることを意味する。学術論文では「システムプロバイダーは自分たちが実際にコントロールできるリスクに対してのみ責任を負うべき」という考え方も提示されているが、それを実際の裁判でどう立証するかは未解決の課題だ。

■AI同士が道路を共有する時代の懸念点

今回の騒動は技術的な問題も改めて示した。テスラのFSDとWaymoのドライバーAIは互いの存在を認識できるが、互いの「次の行動意図」をリアルタイムで共有する仕組みはない。人間のドライバーはアイコンタクトや手振りで意思疎通を図ることができるが、現状のAIシステムには車車間コミュニケーション(V2V)に相当する標準規格が自動運転AI同士のインテント共有という形では普及していない。

「怖がって止まる」AIと「進もうとする」AIが混在する道路

マスク氏が今回認めたように、テスラのロボタクシーは不確実な状況では安全優先で立ち止まる設計になっている。一方でWaymoは長年の走行実績から「この状況なら進める」という判断基準を積み上げてきた。設計思想の異なるAI同士が同じ交差点に共存するとき、一方が止まることで他方の動きが制限されるという連鎖が起きうる。これは単なる利便性の問題ではなく、誤った判断が連鎖する安全リスクにもなりうる。

透明性の欠如が事故原因の特定を困難にする

もう一つの懸念が、事故後の原因究明だ。テスラが事故詳細を非公開にする現状では、同様の事故が繰り返されるリスクがある。Waymoが詳細な安全レポートを定期公開することで業界全体が学べる知見をテスラが共有しないのは、ロボタクシー産業全体の安全向上という観点からも問題だという指摘がある。自動運転の安全基準を底上げするには、各社が事故データを共有する航空業界に近い仕組みが将来的には必要になるかもしれない。

■競争と透明性が自動運転を前進させる

今回の「テスラ対Waymo」の構図は、両社の広報合戦という側面もあるが、それだけで片付けるには重要な問題を含んでいる。マスク氏の発言の事実確認が十分でなかったこと、テスラが事故詳細を非公開にしていること、そしてAI同士が共存する道路での責任の所在が法的に未整備であること、これらはいずれもロボタクシーが社会インフラとして定着するために解決が必要な課題だ。

Waymoとテスラがオースティンやダラスやヒューストンの同じ道路を走り、互いのAIが互いの存在を認識しながら走行する時代はすでに始まっている。その中でどちらのAIがより安全か・より信頼できるかという競争が激化することは、長期的には自動運転の安全水準を引き上げる原動力になりうる。ただしそのためには、少なくとも事故データの透明性という最低限の前提が整う必要がある。テスラとWaymoの喧嘩が、その議論を前進させるきっかけになることを期待したい。

記事監修:下山 哲平
(株式会社ストロボ代表取締役社長/自動運転ラボ発行人)

大手デジタルマーケティングエージェンシーのアイレップにて取締役CSO(Chief Solutions Officer)として、SEO・コンテンツマーケティング等の事業開発に従事。JV設立やM&Aによる新規事業開発をリードし、在任時、年商100億から700億規模への急拡大を果たす。2016年、大手企業におけるデジタルトランスフォーメーション支援すべく、株式会社ストロボを設立し、設立5年でグループ6社へと拡大。2018年5月、自動車産業×デジタルトランスフォーメーションの一手として、自動運転領域メディア「自動運転ラボ」を立ち上げ、業界最大級のメディアに成長させる。講演実績も多く、早くもあらゆる自動運転系の技術や企業の最新情報が最も集まる存在に。(登壇情報
【著書】
自動運転&MaaSビジネス参入ガイド
“未来予測”による研究開発テーマ創出の仕方(共著)



B!
関連記事