Les véhicules autonomes sans conducteur ont beaucoup de barrières à franchir avant de devenir une réalité sur nos routes, mais si l’accent a été mis sur les facteurs technologiques et la sécurité des voitures sans conducteur, il reste encore beaucoup de questions sur leur légalité théorique.
Cette photo impressionnante prise par Zandr Milewski, un utilisateur de Facebook, a fait le tour de l’Internet cette semaine, car elle illustre parfaitement un spectacle rare et déroutant : l’un des véhicules d’essai du projet de voiture sans conducteur de Google, apparemment arrêté, avec un agent de la circulation se tenant au-dessus du véhicule et posant quelques questions au passager humain (qui est tenu par la loi d’être dans le véhicule, au cas où quelque chose tournerait mal et où la voiture nécessiterait une intervention).
La photo n’est pas non plus passée inaperçue chez Google, qui a rapidement fourni une explication à ce que vous pouvez voir sur l’image : “Vous conduisez trop lentement ? Je parie que les humains ne se font pas souvent arrêter pour cela”, a écrit un représentant sur le site du projet Google Self-Driving Car Project. “Nous avons plafonné la vitesse de nos véhicules prototypes à 40 km/h pour des raisons de sécurité. Nous voulons qu’ils se sentent amicaux et accessibles, plutôt que de zoomer de manière effrayante dans les rues du quartier.”
Selon Google, c’est peut-être cette vitesse volontairement lente – en plus de l’apparence inhabituelle du véhicule – qui a attiré l’attention du policier dans ce cas, par opposition à tout ce qui était illégal ou dangereux.
“Comme cet agent, les gens nous font parfois signe lorsqu’ils veulent en savoir plus sur notre projet”, explique Google, “Après 1,2 million de miles [plus de 1,9 million de km] de conduite autonome (c’est l’équivalent humain de 90 ans d’expérience de conduite), nous sommes fiers de dire que nous n’avons jamais été verbalisés !”.
Tout ce qui s’est passé ici n’a pas donné lieu à une contravention, et cette statistique constitue un bilan de conduite indubitablement impressionnant – 1,9 million de km sans une seule contravention pour une infraction au code de la route. Mais cela ne veut pas dire que nous ne devons pas nous poser de questions sur ce genre de choses. Après tout, si une infraction au code de la route devait se produire, qui serait en faute ?
Nous savons que la sécurité théorique des voitures à conduite autonome pourrait sauver des centaines de milliers de vies, et que les avantages environnementaux pourraient être étonnants, en réduisant jusqu’à 90 % les émissions produites par les véhicules, selon une étude.
Mais, outre le perfectionnement de la technologie, nous devons aussi nous demander ce que nous pensons de ces machines qui prennent des décisions de vie ou de mort sur la route. Outre les implications juridiques déroutantes d’une infraction mineure au code de la route, il y a un territoire moral beaucoup plus difficile à considérer.
Dans une étude menée cette année, des chercheurs ont examiné dans quelles circonstances les véhicules à conduite autonome devraient être programmés pour tuer. Cette proposition peut sembler ridicule – après tout, la réponse est sûrement jamais
Mais qu’en est-il d’un dilemme moral théorique, où une voiture autonome, en raison de circonstances imprévisibles, est prise dans une situation d’urgence et doit prendre une décision en une fraction de seconde : doit-elle s’écraser intentionnellement contre un mur, tuant probablement son unique occupant ? Ou doit-elle plutôt foncer dans une foule de piétons et en tuer probablement beaucoup plus ?
Voilà qui donne à réfléchir. Dans cette étude, les sondages suggéraient que les gens étaient généralement d’accord pour dire que la voiture devait minimiser le nombre total de morts, même si cela signifiait tuer l’occupant – et peut-être le propriétaire – du véhicule en question.
Ce sont des questions auxquelles nous devons répondre ! Et bientôt. Mais en attendant, soyons reconnaissants à la technologie d’avoir au moins un dossier de conduite aussi remarquable.