voitures autonome

Une question d'éthique et d'algorithme

Le principe même de la voiture autonome laisse le pilotage du véhicule à un ordinateur. Ce n'est plus un conducteur humain qui prend les décisions. Il faut donc programmer ce qu'il doit faire en toutes circonstances, ou lui apprendre à juger les situations pour lui permettre de faire les bons choix.

Mais les concepteurs de ces véhicules sont confrontés à des répercussions éthiques, notamment en planchant sur les algorithmes d'optimisation d'accident. Imaginez qu'un camion pile devant votre voiture, l'ordinateur va devoir faire un choix : rentrer dans le camion ou l'éviter. Mais il serait possible qu'en choisissant d'éviter le camion, il ait à faire un autre choix : s'il va à gauche, il percute un conducteur de scooter avec un casque ; s'il va à droite, il rentre dans un motard sans casque.


Dans le cas des voitures autonomes, ce ne sont plus les réflexes du conducteur qui décident en un quart de seconde, mais un ordinateur qui a été programmé pour « faire un choix ». Percuter le motard portant un casque, car il sera moins blessé, au risque de lui faire regretter d'avoir mis un casque ? Ou rentrer dans le motard sans casque pour lui « donner une leçon » ? Grave dilemme !

Qui va décider ?

Car dans ce genre de situation, les trajectoires vont varier d'un conducteur à l'autre. Les avis vont se partager entre les « pro casque » et les « pro sans casque ». Devrons-nous choisir dans un avenir proche notre voiture en fonction de sa programmation ?

Et puis, la compagnie d’assurance auprès de laquelle le conducteur du scooter s’est inscrit peut aussi attaquer le concepteur de la voiture qui a « décidé » de percuter son client plutôt que de heurter le camion.

L'avenir des voitures autonomes passe obligatoirement par la résolution de ce défi éthique, et ce, en toute transparence. Car il n'est plus possible de brancher le pilote automatique et de fermer les yeux.