自動運転車の普及に影響はあるのか?Uberの自動運転車による死亡事故をめぐる流れ

Uberは2018年3月、アリゾナ州テンペで自動運転試験中だった車両が歩行者に衝突して死亡させる事故を起こしました。テンペ警察の発表では、ドライバーが被害者の姿を認めた瞬間まで車は減速などの回避行動をとっておらず、時速は約60kmで衝突したといいます。

Uberの自動運転車

事故を起こしたのが一般的な車両でしたらその責任はドライバーが負うことは明白なのですが、自動運転車による事故ということで、責任の所在をはっきりさせる難しさが改めて浮き彫りになった点で重要な事故だったと思います。

車は歩行者の存在を認識していたが、自動緊急ブレーキの設定を解除していた

米運輸安全委員会(NTSB)が5月24日、初期調査報告書を発表しました。報告書によると、衝突の6秒前に車が歩行者を検知したものの、自動緊急ブレーキ(AEB)が作動しなかったことが明らかになりました。

具体的には、自動運転システムが衝突の6秒前に歩行者を検知し、さらに衝突の1.3秒前に緊急ブレーキが必要だと判定していたといいます。しかし事前にUberの技術者らが、AEBシステムが作動しないよう設定していたとも指摘しています。その理由は「車体に不規則な挙動が生じる可能性を下げるため」といいます。

また、歩行者を検知してもドライバーに警告を出す設計にもなっていませんでした。その結果、緊急事態に備えて乗車していた運転手は衝突まで1秒を切った時点でやっと歩行者に気づき事故回避の操作をしましたが、衝突は避けられませんでした。

AEBシステムが作動しないことをドライバーが認識していたのかについては明らかにされていません。まずAEBの作動が解除されていたこと、そして歩行者の存在をドライバーに知らせるシステムがなかったこと、ドライバーが運転中に前方を見ていなかったこと、それらが重なったことによる事故だったようです。同委員会は今回の報告書で責任の所在は特定しておらず、結論は今後の報告書で明らかになると説明しています。

何のための自動運転モードなのか?

Uberの車両は、完全自動運転モードで走行していました。完全自動運転モードなのに、AEBが作動しない設定をするのは不可解ですが、「車両の不安定な動きを未然に防止するため」とUber側は説明しています。

自動運転車の認知能力は人より優れています。カメラやセンサーが常に360度監視し、ライダー(LiDAR)は200メートル先のモノでも検知できます。しかし監視する対象物が多いと、安全のために回避行動を頻繁にとる必要が出てくるためスムーズな走行を妨げるのでしょう。かといってAEBが作動しない設定にしてしまっては、試験走行としては意味をなくしてしまいます。

報告書とは別に、システムが対応すべきオブジェクトを無視するようセットアップされていたという情報提供者からの情報もあります。つまり、事故の際にUberの自動運転車のソフトウェアは横断者を認識していたものの、「false positive(誤検知)」と判断したというのです。そうなると、さらに話は複雑になりそうです。このあたりが次回の報告で明確になることを期待しています。

さらに報告書によれば、歩行者は暗い色の服を着て、側面に反射板のついていない自転車を押しながら、車道の街路灯のない地点を横断していたといいます。また、歩行者に対する薬毒物検査で「メタンフェタミンとマリフアナが陽性」だったことも触れています。

事故を受けUberは、アリゾナ州での無人運転トラックを含めた自動運転試験から撤退すると発表しました。同州における300人弱のテストドライバーは解雇されるといいます。Uberはフェニックス、ピッツバーグ、サンフランシスコ、トロントなど他の都市での、車両テストを一時的に停止しています。今後は、自動運転事業本社があるペンシルベニア州ピッツバーグでのトラック試験を模索するようです。

トヨタが自動運転車の公道テストを休止するなど、影響が広がっています。この事故が徹底的に解明されるのは当然のことですが、最終報告まで1年かかるとの見方もあります。今後も紆余曲折が予測されますが、ユーザーが安心して利用できるシステムの構築を最優先で開発競争が進むことを期待しています。

まとめ

  • 2018年3月にUberの自動運転車両が起こした歩行者の死亡事故の暫定報告書が発表される
  • Uberの自動運転車両は、自動緊急ブレーキ(AEB)機能が解除されていた
  • 車は6秒前に歩行者を認識していたが、ドライバーに知らせるシステムが設計されていなかっ
  • 責任の所在は結論付けていない
  • 最終報告書まで1年を程度かかるとみられ、自動運転車による事故の責任を特定する困難さが浮き彫りに