Le concept de véhicules autonomes (VA) suscite depuis longtemps un débat quant à l’éthique de l’autonomie décisionnelle transférée sur les routes. La Society of Automotive Engineers définit 6 niveaux d'autonomie utilisés officiellement dans l'industrie pour différencier les capacités audiovisuelles.
Les niveaux 0 à 2 AV existent déjà sur les marchés commerciaux. Le niveau 3 constitue le premier saut significatif en termes de capacités. Il décrit des véhicules qui peuvent rouler seuls pendant de courtes périodes, mais nécessitent qu'un conducteur humain soit prêt à intervenir si le système le demande. Les niveaux 4 à 5 vont alors au-delà de la détection environnementale. Celles-ci englobent des technologies de pointe qui évitent complètement l’intervention humaine. Les AV de niveau 4 peuvent effectuer un voyage complet sans intervention humaine dans des conditions spécifiques. Le niveau 5 peut effectuer des voyages entiers en toutes circonstances. Le niveau 5 serait associé aux véhicules qui n'ont même pas besoin de volant ni de pédales, par exemple.
Les dilemmes moraux et éthiques qui émergent autour de ces deux niveaux supérieurs d’autonomie proviennent de la perte de presque tout pouvoir de décision direct. Le bon fonctionnement des technologies de base, la capacité à valoriser la vie et les principes humains, les compromis et la responsabilité deviennent alors tous des problèmes dans les cadres éthiques et juridiques.
Nous les explorerons, en commençant par le fameux problème du chariot.
Le problème du chariot est une expérience de pensée créée dans la branche de la philosophie appelée éthique de la vertu et discute de la manière dont les conséquences prévisibles se comparent aux conséquences attendues au niveau moral. La principale variante, imaginée par la philosophe britannique Philippa Foot (1967), est la suivante :
Un chariot roule sur un ensemble de voies, hors de contrôle et incapable de se briser. 5 personnes sont cependant attachées sur ces voies et le tramway s'approche rapidement d'elles. Vous vous trouvez hors des voies à côté d'un levier qui, s'il était tiré, détournerait la trajectoire du chariot vers un autre ensemble de voies. Cette piste alternative n'a qu'une seule personne attachée, donc le chariot tuera actuellement 5 personnes, mais cela pourrait être réduit à une seule si vous agissez. Tirez-vous le levier ?
Le problème du chariot peut être envisagé sous de nombreux cadres éthiques.
Quelle que soit l’idéologie, notre devoir de minimiser les dommages causés aux autres est directement en conflit avec notre devoir de choisir l’action moralement correcte. C'est la capacité à valoriser des décisions et des compromis comme ceux-ci que beaucoup remettent en question dans les véhicules autonomes. Par exemple, si un véhicule utilitaire était sur le point de s'écraser, les passagers du véhicule devraient-ils avoir la priorité sur les piétons/autres véhicules ?
Mais ce n’est pas seulement la capacité à prendre des décisions difficiles qui doit être prise en compte dans l’éthique des véhicules autonomes. Alors que les humains eux-mêmes ne peuvent pas s’entendre sur le cadre éthique qui répondrait le mieux au problème du chariot, comment sommes-nous censés programmer des voitures autonomes pour peser de tels compromis sous une seule idéologie ?
Quelles valeurs et principes de base devrions-nous programmer dans l’IA ?
Devons-nous vouloir qu’il donne la priorité aux devoirs positifs : le nombre de vies sauvées, ou aux devoirs négatifs : minimiser les dommages actifs causés ?
En 2018, Uber a testé l’AV de niveau 3 en Arizona, ce qui a entraîné un tragique décès de piéton – le premier jamais causé par l’AV. Étant de niveau 3, il y avait un chauffeur de secours présent dans le véhicule, mais ce n'était pas suffisant. Le système de détection environnementale ayant du mal à identifier correctement l'obstacle – ici un piéton à vélo, la possibilité de danger n'a pas été reconnue assez rapidement par les systèmes d'alerte de la voiture. Au moment où le conducteur suppléant a finalement été alerté pour prendre le contrôle, le véhicule était déjà à 0,2 seconde de l'impact et roulait à 39 mph.
Cet exemple ne traite pas nécessairement du compromis entre les dommages directs causés aux passagers du véhicule utilitaire et aux piétons extérieurs au véhicule, car la conductrice de secours n'a jamais couru elle-même le risque de se blesser. Cependant, cela révèle si nous pouvons et devons nous fier à la détection sensorielle de l’IA plutôt qu’à la nôtre et si la commande manuelle est une solution de secours réalisable dans des scénarios aussi exigeants et à court de temps.
Cela met également en lumière la question du transfert d’autonomie, même temporaire, à un AV, via l’absence d’un agent moral coupable du meurtre. Dans cette affaire, Uber a retiré plus de 90 autres AV de niveau 3 qu'il avait testés en Arizona et s'est mis d'accord avec la famille de la victime. Le chauffeur suppléant, en revanche, a été accusé d'homicide par négligence. La faute a-t-elle été imputée à juste titre ou aurait-elle dû être le véhicule – cette dernière solution est-elle même possible ?
L'UNESCO souligne que les cadres éthiques de l'IA devraient donner la priorité à la prévention des dommages et au respect des droits de l'homme. La sécurité et la non-discrimination devraient sous-tendre les principes de l’apprentissage automatique. La surveillance, le contrôle et la responsabilité humains doivent également être considérés comme essentiels aux côtés d’une IA responsable.
Des concepts supplémentaires d'équité et de « pour le bien commun » suggèrent que nous souhaitons que l'IA utilise une idéologie utilitaire pour la prise de décision. D'un autre côté, le « respect des droits de l'homme » joue sur la justesse morale des actions elles-mêmes, c'est-à-dire sur la déontologie.
La transparence sera bien entendu également primordiale pour comprendre comment les décisions finissent par être calculées par les AV. Pour évaluer les dommages causés ou évités en cas d’accident AV, nous devrons comprendre comment et pourquoi la technologie d’IA sous-jacente parvient à une certaine conclusion. La confiance du public dans les AV nécessitera de comprendre la responsabilité et de s’assurer que les bons cadres sont respectés.
Le Service de recherche du Parlement européen reconnaît les préoccupations éthiques, juridiques et économiques qui doivent être prises en compte lors du développement et du déploiement de l’IA décisionnelle automatisée. Cela comprend des recherches sur la manière de développer des principes éthiques dans les algorithmes sous-jacents et sur la manière d’adapter les politiques et réglementations mondiales au rythme exponentiel de l’innovation en matière d’IA.
En termes de droits de l'homme, l'action humaine est également une priorité, les organismes de recherche souhaitant protéger le « droit des utilisateurs finaux à ne pas être soumis à une décision fondée uniquement sur un traitement automatisé ». Du côté technologique, les normes de cybersécurité deviendront plus importantes pour garantir des systèmes sécurisés et fiables. L’IA éthique nécessite un logiciel fiable.
Bien que le grand public n'utilise pas encore de véhicules AV de niveau 3+ sur les routes du Royaume-Uni, ni aucun véhicule de ce type disponible sur les marchés nationaux, les principaux acteurs de l'industrie comme BMW, Tesla et Mercedes visent à les lancer d'ici 2025 en utilisant des technologies. comme Traffic Jam Pilot pour le faire.
Si les AV maîtrisent l’éthique de la prise de décision, ils en retireront de grands avantages. Certaines estimations prévoient une réduction de 90 % des accidents de la route liés à leur présence sur les routes. Pourtant, il est clair que nous ne disposons pas encore de cadres éthiques et juridiques quantifiables décrivant la manière dont les décisions doivent être prises et les compromis hiérarchisés en ce qui concerne les technologies qui sous-tendent les VA.
Les acteurs de l'audiovisuel devront donc définir plus en détail ce que signifie « minimiser les dommages » et quelle idéologie éthique devrait dicter la prise de décision. Comme nous l’avons vu avec l’accident d’Uber en 2018, la responsabilité et l’agence devront également être clarifiées. Tous ces éléments, la manière dont ils seront traités et la direction dans laquelle nous progresserons, auront des implications éthiques à long terme pour la société.