自動運転の「事故責任」は誰にある? 世界で多発する事故に見る安全性の行方とは

キーワード :
,
現在話題となっている「自動運転」。一見、ユーザーにとって便利で安全そうに見えるが、実際は多くの衝突事故が発生している。

事故から見える今後の課題

自動運転のレベル分けについて(画像:国土交通省)
自動運転のレベル分けについて(画像:国土交通省)

 具体的にどのような課題があるのだろうか。

 米国では2018年3月、ウーバーイーツの自動運転の配達実験を実施。その実験の最中に、自転車を押して道路横断中だった歩行者をはねて死亡させている。

 事故原因はドライバーが動画を閲覧しながら運転しており、周囲の確認を怠ったことだった。また自動運転システムが通行人を認識できず、エラーを起こしていた。

 ほかにはテスラの電気自動車「モデルS」による事故も。ドライバーによると部分的な自動運転システムを使っていたものの、日光や車の色によって近くの車を認識できずにそのまま衝突した。同車のガイド機能からハンドルを握るよう何度も警告されたのにもかかわらず、ドライバーはそのほとんどを無視している。やはり自動運転に依存しすぎると、事故につながってしまうことも多いのだ。

 このようにシステムエラーが発生してしまい、人や標識を認識できないこともあり、必ずしも安全とは言い切れない面がある。自動運転を利用する際はドライバーもしっかりと周りを確認したうえで、エラーを防ぐためにもメンテナンスを定期的におこなうことが必須だ。

 今後の課題として、自動運転に準じた法改正や道路整備なども挙げられる。自動運転の安全性を向上するだけでなく、事故を起こしたときの罰則や自動運転専用道路の準備も進めないと実用化するのは難しい。

全てのコメントを見る