Googleの自動運転、またバスを無視!直らない「欠陥」

相次ぐ「暴走映像」も



出典:YouTube

「人間より安全」。そんな触れ込みで米国の街を颯爽と走るGoogle傘下のWaymo(ウェイモ)が、今、最大のピンチを迎えている。

スクールバスが子どもたちのために停車している際、後続車は必ず停止しなければならない。これは米国において、どんな交通ルールよりも優先される「絶対の約束事」だ。ところが、Waymoの自動運転車はこのルールを何度も無視し、あろうことか強引に追い越すという極めて危険な交通違反を繰り返している。


しかも、安全性を高めるためにシステムを修正する「リコール」を実施した後であるにもかかわらず、違反の連鎖が止まらない。当局のメスが入る中で見えてきたのは、AIの限界か、それともバックアップしている「人間のミス」か。

本記事では、Waymoが引き起こした最新の不祥事から、業界を揺るがすリコール問題、そして日本国内での自動運転の取り組みまでを徹底解説する。自動運転の「安全神話」に潜む落とし穴とは何か、その正体に迫る。

編集部おすすめサービス<PR>
自動車保険 スクエアbang!(一括見積もり)
「最も安い」自動車保険を選べる!見直すなら今!
新車定額!リースナブル(車のカーリース)
お好きな車が月1万円台!頭金・初期費用なし!
車業界への転職はパソナで!(転職エージェント)
転職後の平均年収837〜1,015万円!今すぐ無料登録を
タクシーアプリは「DiDi」(配車アプリ)
クーポン超充実!「無料」のチャンスも!
編集部おすすめサービス<PR>
パソナキャリア
転職後の平均年収837〜1,015万円
タクシーアプリDiDi
クーポンが充実!「乗車無料」チャンス
MOTAカーリース
お好きな車が月々1万円台から!
スクエアbang!
「最も安い」自動車保険を提案!

またやらかした?スクールバス「25回目」の無視で当局が激怒

2026年3月25日、テキサス州オースティンの路上で、またしてもWaymoのロボタクシーが「失態」を演じた。停車中のスクールバスを、事もあろうに違法に追い越してしまったのだ。これを受け、米政府の独立調査機関であるNTSB(国家運輸安全委員会)は、この事案を現在進行中の調査対象に即座に追加した。

驚くべきはその累積回数だ。今回の一件で、Waymoによるスクールバスへの違法な接近・通過は、記録されているだけで25回を数える。これほどまでに同じ違反が繰り返されるのは、単なる「偶発的なミス」という言い訳が通用しないレベルに達している。


▼2025年10月にはスクールバスの右側から横切るようにバスの前を通過した動画が拡散された

そもそも「スクールバス無視」はなぜこれほど重罪なのか

日本の読者にはピンとこないかもしれないが、米国でのスクールバス追い越しは「一発アウト」級の重罪だ。バスが赤いライトを点滅させ、「STOP」と書かれたアームを出して停車している間は、子どもが道路を横断している可能性があるため、後続車はもちろん、中央分離帯のない道路では対向車線であっても全車両が完全に停止しなければならない。


これを無視するのは、子どもの命を直接危険にさらす行為であり、市民の感情を逆なでする「最悪の違反」といえる。米国では厳しい罰金や免許停止が課されるこのルールを、AIが何度も破っているという事実は、地域住民にとって恐怖以外の何物でもない。

踏切無視に逆走……相次ぐ「暴走映像」が突きつける現実

問題はスクールバスだけではない。同じ2026年3月初旬には、踏切の遮断機が下りているにもかかわらず、それを無視して突き進もうとしたり、道路を逆走したりするWaymo車両の姿がSNSで拡散され、全米に衝撃を与えた。

特に踏切での挙動は、一歩間違えれば列車との衝突事故につながる極めて危険なものだ。AIが遮断機の動きを正しく認識できていないのか、あるいは「急いで目的地へ着くこと」を優先するように学習してしまっているのか。映像を見た専門家からは、システムの判断プロセスに根本的な疑念が投げかけられている。

【参考】関連記事としては「Googleの自動運転車、公道を逆走!Xで目撃投稿」も参照。

Googleの自動運転車、公道を逆走!Xで目撃投稿

リコールも効かない?「欠陥」ともいえる異常事態の正体

Waymoは少し前、ソフトウェアのバグが原因で同様のトラブルが起きたとして、大規模なアップデートを伴うリコールを実施したばかりだ。普通ならここで問題は収束するはずだが、現実には違反が止まっていない。これは、単なる一時的なプログラムの記述ミスではなく、システムの「設計思想」そのものに何らかの欠陥があるといってもいい異常事態だ。

自動運転車の「目」となるカメラやLiDAR(ライダー)がスクールバス特有の形状や点滅灯を認識できていないのか、それとも「認識はしているが、停止すべき状況だと正しく判断できていない」のか。リコール後も改善されない現状は、Waymoが抱える技術的な壁が、想像以上に高いことを示唆している。

認識と判断の「ズレ」が招くリスク

AIにとって、道路上の物体を「バス」と認識すること自体はそれほど難しくない。しかし、そのバスが「スクールバス」であり、かつ「現在、子どもが乗降中であり停止義務がある」という文脈を理解するのは、実は高度な判断を要する。

リコールでも修正しきれないこの「判断のズレ」こそが、自動運転における最大の落とし穴だ。静止画の学習だけでは補いきれない、動的な交通ルールの理解不足が、今回の「欠陥」とも呼べる事態を招いている。

【参考】関連記事としては「自動運転車の事故、Waymoが62件で最多 米当局が公表」も参照。

自動運転車の事故、Waymoが62件で最多 米当局が公表

■実は「人間」が背中を押していた?驚きの調査結果

さらに、耳を疑うような事実も分かってきた。NTSB(国家運輸安全委員会)の調査によると、過去のバス通過事案の中には、AIがどう走るべきか判断に迷い、サポートを求めた際に起きたものがあるという。

その際、ミシガン州などの拠点にいる「遠隔オペレーター」と呼ばれる人間のスタッフが、本来止まるべき状況であるにもかかわらず、車両に対して「進め」という指示を出していたのだ。自動運転の信頼性を担保するための「最後の砦」であるはずの人間が、違反の引き金を引いていた。

遠隔操作システムの「死角」と責任の所在

Waymoは、AIが判断できない複雑な状況を人間が遠隔で支援する仕組みを売りにしていた。しかし、遠隔地のモニター越しでは現場のリアルな空気感や、バスの周囲にいる子どもの気配を捉えきれないことが、今回のミスで露呈した。

もし事故が起きた場合、責任は判断を仰いだAIにあるのか、それとも間違った指示を出した人間にあるのか。法整備が追いつかない中で、Waymoが突き進んできた「無人タクシー」というビジネスモデルの危うさが、ここに集約されている。人間を介在させることが、必ずしも安全の保証にはならないという教訓だ。

■Waymoだけじゃない!業界全体を襲う「リコールの嵐」

自動運転の欠陥やリコールに苦しんでいるのは、Waymoだけではない。GM(ゼネラルモーターズ)傘下で、ホンダも出資するCruise(クルーズ)は、2023年にサンフランシスコで歩行者をひきずった事故をきっかけに、全車両の運行停止とソフトウェアリコールを余儀なくされた。

Cruiseの場合、事故後に車両が安全のために路肩に寄せようとした動きが、結果的に被害者をさらに数十メートルひきずる形となった。「安全のために組まれたプログラム」が、予測不可能な事態において、かえって被害を拡大させる。この残酷な現実は、現在の自動運転技術がいかに未熟であるかを象徴している。

【参考】関連記事としては「自動運転タクシー、「Google一強時代」に逆戻り GMの全台リコールで」も参照。

テスラや他社も直面する「修正のイタチごっこ」

イーロン・マスク率いるテスラの「FSD(Full Self-Driving:フルセルフドライビング)」も、米当局(NHTSA)から何度も修正を求められている。自動運転のリコールは、かつての物理的な部品交換とは異なり、ネット経由(OTA)で修正できるため、メーカー側は「すぐに直せる」という態度を取りがちだ。

しかし、一つの不具合を直すと、別の状況で予期せぬ挙動が出るという「モグラ叩き」状態に陥っているのが実情だ。プログラムの複雑さが、もはや人間のコントロール可能な範囲を超えつつあるのではないかという懸念も強まっている。

■日本の自動運転は大丈夫?国内勢の慎重かつ着実な歩み

一方、ここ日本ではどうだろうか。米国のような「とりあえず走らせて、走りながら直す」というアグレッシブなスタイルとは対照的に、日本国内の取り組みは極めて慎重だ。

例えば、自動運転技術の開発を手掛けるT2(ティーツー)は、日本の高速道路での自動運転レベル4(特定条件下での完全自動運転)実現に向け、気の遠くなるような実証実験を繰り返している。彼らのアプローチは、日本の複雑な交通事情や気象条件を徹底的に分析し、まずは「絶対にルールから逸脱しない」基盤を固めることにある。

国交省が課す「世界一厳しい」といわれるハードル

日本で自動運転車が公道を走るためには、国土交通省による厳格な型式指定や、特定の走行ルートに対する詳細な安全許可が必要だ。米国でWaymoが起こしているような「スクールバス無視」や「逆走」といった事態は、日本では一発で運行停止処分の対象になり、事業継続自体が危ぶまれるほどのスキャンダルになる。

この厳格すぎるルールが日本のイノベーションを遅らせているという批判もある。しかし、Waymoの不祥事を見る限り、命を預かる技術において「慎重さ」は最大の付加価値ともいえる。日本企業は、信頼性を担保することで世界市場への逆転を狙っている。

独自技術で「日本の道」を攻略するプレイヤーたち

また、ティアフォー(名古屋大学発のスタートアップで、オープンソースの自動運転OS「Autoware」を主導)などの企業も、日本の地方自治体と協力して着実に実績を積んでいる。

彼らが重視するのは、地域住民との対話だ。「クルマが勝手に動く」ことへの不安を取り除くため、速度を抑え、徹底した安全確認を行う。Waymoのように大都市でいきなり24時間無人タクシーを展開するのではなく、まずは限定的なルートから信頼を積み上げる。この「急がば回れ」の戦略こそが、最終的な勝者を決めるかもしれない。

■自動運転の「過信」という最大の落とし穴

今回のWaymoのニュースは、私たちが自動運転技術に対して抱きがちな「万能感」への強烈な冷や水となった。過去の記事では「AIは人間より事故率が9割低い」といったデータが話題になったが、そのデータさえも、今回のような「交通ルールを無視した強引な走行」の上に成り立っているのだとしたら、その価値は根底から覆る。

「AIだから間違えない」「Googleが作ったから完璧だ」という思考停止こそが、自動運転社会における最大の落とし穴だ。私たちは、テクノロジーが進歩すればするほど、その背後にある不完全さに対して、より敏感でなければならない。

リコールでも直らない「AIの癖」に向き合う

ソフトウェアを修正すればすべて解決するわけではない。AIには、学習データの偏りから生じる「特有の癖」がある。Waymoのケースでは、それが「スクールバスの停止を軽視する」という形で現れた。

この癖を完全に排除するのは、現在の技術では極めて難しい。私たちが自動運転車と共存するためには、彼らが時として「あり得ないミス」をすることを前提に、交通システム全体を再設計する必要があるのかもしれない。

【参考】関連記事としては「Googleの自動運転車に「3つ目の脆弱性」 1,200台のリコール」も参照。

■信頼というインフラを再構築するために

自動運転車がスクールバスを無視するという事態は、単なる一企業の不祥事では済まされない。それは、社会が新しいテクノロジーを受け入れるための、最も大切な「安心感」というインフラを破壊してしまう行為だからだ。

今後、日本でも自動運転レベル4の社会実装が加速していく。その際、私たちはWaymoの失敗を他山の石とし、技術の進歩を称賛する一方で、冷徹な監視者であり続ける必要がある。リコールを繰り返しても直らない「欠陥」や、遠隔オペレーターの「判断ミス」を、過渡期の不運として片付けてはならない。

自動運転の未来は、確かに明るい可能性に満ちている。しかし、その足元には、命に直結する「安全」という重い宿題がまだ山積みだ。

こうしたシステムには様々なトラブルがあるが検証を続け、一つ一つ解決していくことが自動運転の実現と普及につながるので、このトラブルも将来の自動運転の完成に向けての1ステップとして見守りたい。

記事監修:下山 哲平
(株式会社ストロボ代表取締役社長/自動運転ラボ発行人)

大手デジタルマーケティングエージェンシーのアイレップにて取締役CSO(Chief Solutions Officer)として、SEO・コンテンツマーケティング等の事業開発に従事。JV設立やM&Aによる新規事業開発をリードし、在任時、年商100億から700億規模への急拡大を果たす。2016年、大手企業におけるデジタルトランスフォーメーション支援すべく、株式会社ストロボを設立し、設立5年でグループ6社へと拡大。2018年5月、自動車産業×デジタルトランスフォーメーションの一手として、自動運転領域メディア「自動運転ラボ」を立ち上げ、業界最大級のメディアに成長させる。講演実績も多く、早くもあらゆる自動運転系の技術や企業の最新情報が最も集まる存在に。(登壇情報
【著書】
自動運転&MaaSビジネス参入ガイド
“未来予測”による研究開発テーマ創出の仕方(共著)




関連記事