Uber: La voiture autonome qui a tué un piéton a «choisi» de ne pas l’éviter

0
12146

Une décision fatale. La voiture autonome Uber qui a renversé une femme de 49 ans en mars lors d’un essai aux Etats-Unis aurait « choisi » de ne pas éviter la collision, selon le site The Information, qui cite des sources « proches du dossier ».

Les capteurs du véhicule, lancé en mode autonome à Tempe, en Arizona, ont bien détecté la piétonne, qui traversait la route en poussant un vélo, mais le logiciel d’Uber a décidé de ne pas réagir immédiatement. La femme a été emmenée à l’hôpital où elle est décédée des suites de ses blessures.

« Faux positifs »

Cette décision, détaille le site, est la conséquence du réglage logiciel (effectué par des humains) qui a donné à la voiture une grande « tolérance » pour ignorer ce qu’on appelle les « faux positifs », par exemple un sac en plastique qui volerait devant le véhicule et qu’il ne serait pas nécessaire d’éviter.

A tel point que le système n’a pas jugé nécessaire d’éviter un être humain et un vélo. « Le réglage était trop fort, et la voiture n’a pas réagi assez vite », estime l’une des sources de The Information.

Après l’accident mortel, l’Arizona a interdit à Uber de faire rouler de tels véhicules sur ses routes, invoquant la « sécurité publique ». Le groupe américain a suspendu tous ses tests de voiture autonome sur route.