Il y a cinq ans, Frank Chen a posé une question qui me préoccupe chaque jour depuis. La question était la suivante : « Si les voitures autonomes sont 51 % plus sûres, ne sommes-nous pas moralement obligés de les adopter ? J'ai posé cette question à maintes reprises au cours des cinq dernières années, et généralement, une réaction instinctive mène à un débat intéressant. Ce qui rend cette question si importante, c'est le fil du couteau : ce n'est pas 99 % plus sûr, ce n'est pas 70 % plus sûr, c'est seulement 51 % plus sûr.
Pour le remettre dans son contexte. La National Highway Safety Administration a signalé qu’en 2022, il y a eu environ 42 795 décès sur la route. 50 % de 42 795 correspondent à 21 398 personnes et 51 % correspondent à 21 825 personnes.
Cela signifie que si les voitures autonomes étaient 51 % plus sûres, leur utilisation sauverait la vie de 427 personnes chaque année. Cela représente environ 1,5 avion Boeing 777 rempli de passagers.
Sauver 427 vies est-il un argument moral en faveur de l’adoption ?
Depuis cinq ans que je partage cette question, les réponses ne sont jamais simples. Ils sont toujours remplis de « et si ». Mais même si les réponses manquent de clarté, je pense que la question est extrêmement importante. En partie parce que cela ouvre un débat plus large – et tout aussi important – sur l’impératif moral de l’adoption de l’IA dans de nombreux aspects de nos vies et de notre travail. Parce qu'après tout, éviter une technologie qui pourrait sauver des vies peut être tout aussi problématique d'un point de vue éthique que d'adopter une technologie trop hâtivement,
J'ai toujours trouvé que le débat autour des véhicules autonomes était un microcosme parfait pour le discours plus large sur l'IA. Si nous possédons une technologie statistiquement plus sûre que les véhicules actionnés par des humains, le choix moral n’est-il pas évident ?
Considère ceci:
Et n’oubliez pas que ces chiffres ne sont pas que des statistiques. Ils représentent de vraies vies qui pourraient être sauvées en adoptant la technologie de l’IA.
Mais pourquoi s’arrêter aux véhicules autonomes ? Le potentiel de l’IA pour améliorer la sécurité, l’efficacité et la précision s’étend à des domaines tels que la médecine, la santé publique, la sécurité alimentaire, l’agriculture, la cybersécurité, la prévention du crime et la science militaire. Si l’IA peut diagnostiquer les maladies avec plus de précision que les médecins humains, prédire les mauvaises récoltes avant qu’elles ne ravagent les réserves alimentaires ou contrecarrer les cyberattaques avant qu’elles ne piratent nos données, n’avons-nous pas l’obligation morale d’utiliser également ces technologies ?
Bien sûr, ce sont des exemples dramatiques, mais le débat s’étend au-delà des scénarios de vie ou de mort. La capacité de l’IA à améliorer notre qualité de vie quotidienne est tout aussi convaincante. Qu’il s’agisse de simplifier les tâches banales ou de rendre les informations et les services plus accessibles et équitables, l’IA peut mettre fin à la corvée et améliorer notre qualité de vie quotidienne. L’impératif moral d’adopter l’IA ne consiste pas seulement à prévenir les dommages ou la mort ; il s'agit de savoir si nous avons l'obligation de contribuer au bien-être humain si nous le pouvons.
Alors, choisissons-nous des véhicules pilotés par l’homme (ou des processus dirigés par l’homme) en sachant qu’ils sont moins sûrs ou moins efficaces que leurs homologues IA ? Simplement parce qu’ils sont plus humains ?
Face au choix entre les systèmes exploités par l’homme et les alternatives améliorées par l’IA, je pense que la décision devrait évidemment reposer sur la sécurité et l’efficacité plutôt que sur une allégeance à une idée trouble de ce qui est « humain » ou non.
Adopter l’IA ne signifie pas ignorer la valeur ou l’apport humain ; il s’agit plutôt de reconnaître que ce qui est humain n’est pas intrinsèquement supérieur – et, honnêtement, est souvent nettement inférieur dans des contextes spécifiques.
Maintenant, s'il vous plaît, ne sortez pas les fourches, je ne rejoindrai pas la Team Robot Overlord. Je comprends l’anxiété que beaucoup de gens ressentent face aux perturbations que l’IA provoque déjà dans leur travail et au changement sociétal qui s’annonce sans aucun doute vers nous. Je me demande simplement si l’efficacité de l’IA et les avantages en termes de qualité de vie pourraient, à long terme, contrebalancer l’impact de ces perturbations.
Une partie de notre réticence à adopter l’IA est motivée par des biais cognitifs et des peurs. Pour une espèce réputée pour sa capacité d’adaptation, nous, les humains, n’aimons pas le changement.
Les biais cognitifs jouent un rôle important dans notre hésitation à adopter l’IA. Les biais cognitifs sont des schémas psychologiques qui sont un vestige de nos premières années en tant qu'Homo Sapiens. Ce sont les habitudes dans lesquelles nos esprits tombent – des raccourcis cognitifs qui peuvent être utiles pour fuir les prédateurs mais qui faussent définitivement notre perception et notre jugement modernes.
Dans ce cas, il est crucial de reconnaître et de combattre ces préjugés pour évoluer vers une approche plus rationnelle et éthique de l’adoption de l’IA. En voici quelques-unes qui, je pense, pourraient jouer un rôle, influençant notre suspicion, notre confiance ou notre acceptation des technologies d’IA.
Intéressant, non ? Mais la vérité est que tout cela est académique. Nous ne pourrons peut-être même pas prendre cette décision en fin de compte. Les entreprises le font déjà.
De nombreuses entreprises se lancent dans l’intégration de l’IA, principalement parce que le retour sur investissement est souvent plus éloquent que les débats éthiques. Prendre
Pourtant, il ne s’agit pas seulement d’un capitalisme au cœur de pierre ; c'est une question de survie et d'adaptation. Les entreprises sont confrontées chaque jour au défi d’équilibrer l’adoption technologique avec les responsabilités éthiques et ESG. L’impact de l’IA sur l’emploi et le bien-être humain ne peut être considéré après coup. Pour des milliers de personnes, la stabilité financière et le bien-être professionnel dépendent de ces décisions. C’est un problème auquel de nombreuses entreprises sont aux prises.
Et c’est ici que la question de l’impératif moral devient plus nuancée. Si l’IA peut rationaliser les opérations, réduire les coûts et même créer de nouvelles opportunités, ne sommes-nous pas également moralement responsables de l’exploration de ces technologies ?
L’astuce consistera à garder cette boussole éthique à portée de main et à garantir qu’en adoptant les gains d’efficacité de l’IA, nous nous protégeons également contre son potentiel de perturbation injuste des moyens de subsistance.
Quoi qu’il en soit, nous devons faire attention à nos pas. Nous nous trouvons au bord du précipice d’une nouvelle ère, et une simple avancée solide pourrait nous entraîner dans une chute libre. L’IA n’est plus un fantasme futuriste ; c'est absolument intégré dans notre vie quotidienne et notre travail. C'est excitant – et effrayant comme l'enfer.
L’un des défis les plus importants auxquels nous sommes confrontés est l’accessibilité ou le fossé technologique. L’IA a le potentiel de démocratiser la technologie, en mettant des outils puissants à la disposition d’un public plus large. Cependant, à l’heure actuelle, les promesses de l’IA sont principalement perçues par ceux qui disposent déjà d’un certain niveau d’accès. Il est donc également possible que l’IA exacerbe les inégalités existantes plutôt que de les atténuer.
C’est une période d’ajustement, il faudra donc de la patience, de l’éducation et des mesures proactives pour garantir que les bénéfices de l’IA soient largement distribués. Nous avons le potentiel d’uniformiser les règles du jeu afin que le potentiel de l’IA puisse être libéré pour tout le monde, et pas seulement pour quelques privilégiés.
D’accord, c’est donc un paradoxe : pour que l’IA fonctionne de manière optimale aux côtés des humains, elle doit nous être supérieure dans certaines tâches. Mais cette TRÈS supériorité menace de déplacer les rôles humains, alimentant la résistance et la peur parmi nous, mortels.
Ce paradoxe crée un « push-pull » difficile pour l’IA ; c'est pourquoi nous assistons à un débat si houleux sur la moralité. Je pense que la solution pourrait résider dans une suite de philosophies et de technologies de conception émergentes visant à combler le fossé entre l’IA et la coopération humaine de manière éthique. Je vais les énumérer ci-dessous. Cela vaut la peine d’interroger ChatGPT sur :
En conclusion, je prendrai position. Je pense qu’adopter l’IA est un impératif moral. À mon avis, le potentiel de sauver des vies, d’améliorer notre qualité de vie et même de remédier à des inégalités de longue date est trop important pour être ignoré. Toutefois, cela ne signifie pas que nous devons plonger tête première sans considération. À mon avis, nous devons aborder l’IA avec un mélange d’enthousiasme et de prudence, en restant enthousiastes à l’idée d’explorer ses possibilités tout en étant conscients de son impact éthique, social et économique.
Une réflexion réfléchie, des cadres éthiques solides et une gouvernance rigoureuse sont les clés pour libérer le potentiel de l’IA de manière responsable.
Je suis toujours ouvert au débat sur le sujet. Je vais donc vous poser la question. Répondez ici ou sur mon
Sommes-nous prêts à adopter l’IA avec le sérieux moral qu’elle exige ?
Êtes-vous prêt à faire votre prochain road trip en voiture autonome ?