paint-brush
Sommes-nous moralement obligés d’adopter l’IA ?par@corhymel
1,141 lectures
1,141 lectures

Sommes-nous moralement obligés d’adopter l’IA ?

par Cory Hymel8m2024/04/20
Read on Terminal Reader

Trop long; Pour lire

Frank Chen, deuxième en partant de la gauche, sur le panel d'IA dans lequel la question a été posée. Crédits : Gigster
featured image - Sommes-nous moralement obligés d’adopter l’IA ?
Cory Hymel HackerNoon profile picture
0-item

Il y a cinq ans, Frank Chen a posé une question qui me préoccupe chaque jour depuis. La question était la suivante : « Si les voitures autonomes sont 51 % plus sûres, ne sommes-nous pas moralement obligés de les adopter ? J'ai posé cette question à maintes reprises au cours des cinq dernières années, et généralement, une réaction instinctive mène à un débat intéressant. Ce qui rend cette question si importante, c'est le fil du couteau : ce n'est pas 99 % plus sûr, ce n'est pas 70 % plus sûr, c'est seulement 51 % plus sûr.


Pour le remettre dans son contexte. La National Highway Safety Administration a signalé qu’en 2022, il y a eu environ 42 795 décès sur la route. 50 % de 42 795 correspondent à 21 398 personnes et 51 % correspondent à 21 825 personnes.


Cela signifie que si les voitures autonomes étaient 51 % plus sûres, leur utilisation sauverait la vie de 427 personnes chaque année. Cela représente environ 1,5 avion Boeing 777 rempli de passagers.


Sauver 427 vies est-il un argument moral en faveur de l’adoption ?


Depuis cinq ans que je partage cette question, les réponses ne sont jamais simples. Ils sont toujours remplis de « et si ». Mais même si les réponses manquent de clarté, je pense que la question est extrêmement importante. En partie parce que cela ouvre un débat plus large – et tout aussi important – sur l’impératif moral de l’adoption de l’IA dans de nombreux aspects de nos vies et de notre travail. Parce qu'après tout, éviter une technologie qui pourrait sauver des vies peut être tout aussi problématique d'un point de vue éthique que d'adopter une technologie trop hâtivement,


L’impératif moral de l’adoption de l’IA


J'ai toujours trouvé que le débat autour des véhicules autonomes était un microcosme parfait pour le discours plus large sur l'IA. Si nous possédons une technologie statistiquement plus sûre que les véhicules actionnés par des humains, le choix moral n’est-il pas évident ?


Considère ceci: études ont montré que les conducteurs humains présentaient un taux d'accidents avec un risque de blessure important plus élevé que les voitures autonomes (alimentées par l'IA). Plus précisément, les conducteurs humains ont causé 0,24 blessures par million de miles (IPMM) et 0,01 décès par million de miles (FPMM), tandis que les voitures autonomes ont causé 0,06 IPMM et 0 FPMM.


Et n’oubliez pas que ces chiffres ne sont pas que des statistiques. Ils représentent de vraies vies qui pourraient être sauvées en adoptant la technologie de l’IA.


Mais pourquoi s’arrêter aux véhicules autonomes ? Le potentiel de l’IA pour améliorer la sécurité, l’efficacité et la précision s’étend à des domaines tels que la médecine, la santé publique, la sécurité alimentaire, l’agriculture, la cybersécurité, la prévention du crime et la science militaire. Si l’IA peut diagnostiquer les maladies avec plus de précision que les médecins humains, prédire les mauvaises récoltes avant qu’elles ne ravagent les réserves alimentaires ou contrecarrer les cyberattaques avant qu’elles ne piratent nos données, n’avons-nous pas l’obligation morale d’utiliser également ces technologies ?


Bien sûr, ce sont des exemples dramatiques, mais le débat s’étend au-delà des scénarios de vie ou de mort. La capacité de l’IA à améliorer notre qualité de vie quotidienne est tout aussi convaincante. Qu’il s’agisse de simplifier les tâches banales ou de rendre les informations et les services plus accessibles et équitables, l’IA peut mettre fin à la corvée et améliorer notre qualité de vie quotidienne. L’impératif moral d’adopter l’IA ne consiste pas seulement à prévenir les dommages ou la mort ; il s'agit de savoir si nous avons l'obligation de contribuer au bien-être humain si nous le pouvons.

Le dilemme du choix et de la sécurité


Alors, choisissons-nous des véhicules pilotés par l’homme (ou des processus dirigés par l’homme) en sachant qu’ils sont moins sûrs ou moins efficaces que leurs homologues IA ? Simplement parce qu’ils sont plus humains ?


Face au choix entre les systèmes exploités par l’homme et les alternatives améliorées par l’IA, je pense que la décision devrait évidemment reposer sur la sécurité et l’efficacité plutôt que sur une allégeance à une idée trouble de ce qui est « humain » ou non.


Adopter l’IA ne signifie pas ignorer la valeur ou l’apport humain ; il s’agit plutôt de reconnaître que ce qui est humain n’est pas intrinsèquement supérieur – et, honnêtement, est souvent nettement inférieur dans des contextes spécifiques.


Maintenant, s'il vous plaît, ne sortez pas les fourches, je ne rejoindrai pas la Team Robot Overlord. Je comprends l’anxiété que beaucoup de gens ressentent face aux perturbations que l’IA provoque déjà dans leur travail et au changement sociétal qui s’annonce sans aucun doute vers nous. Je me demande simplement si l’efficacité de l’IA et les avantages en termes de qualité de vie pourraient, à long terme, contrebalancer l’impact de ces perturbations.


Une partie de notre réticence à adopter l’IA est motivée par des biais cognitifs et des peurs. Pour une espèce réputée pour sa capacité d’adaptation, nous, les humains, n’aimons pas le changement.


Les biais cognitifs jouent un rôle important dans notre hésitation à adopter l’IA. Les biais cognitifs sont des schémas psychologiques qui sont un vestige de nos premières années en tant qu'Homo Sapiens. Ce sont les habitudes dans lesquelles nos esprits tombent – des raccourcis cognitifs qui peuvent être utiles pour fuir les prédateurs mais qui faussent définitivement notre perception et notre jugement modernes.


Dans ce cas, il est crucial de reconnaître et de combattre ces préjugés pour évoluer vers une approche plus rationnelle et éthique de l’adoption de l’IA. En voici quelques-unes qui, je pense, pourraient jouer un rôle, influençant notre suspicion, notre confiance ou notre acceptation des technologies d’IA.

  • Biais d’anthropomorphisme : les gens ont tendance à attribuer des caractéristiques humaines à l’IA ou aux robots, ce qui influence leur confiance et leurs attentes. Cela peut conduire à des hypothèses irréalistes sur les capacités des systèmes d’IA ou sur l’attribution de mauvaises intentions.

  • Heuristique de disponibilité : ce biais conduit les individus à surestimer la probabilité d'événements associés à des incidents mémorables ou marquants. Les reportages sensationnalistes des médias sur les échecs ou les succès de l’IA peuvent être disproportionnés et influencer de manière disproportionnée les perceptions de la fiabilité et de la sécurité de l’IA.

  • Biais de confirmation : que font les autres ? Les gens peuvent rechercher ou interpréter des informations d’une manière qui confirme leurs croyances ou hypothèses préexistantes sur l’IA. Ce biais peut entraver l’évaluation objective des technologies d’IA et de leurs avantages ou risques potentiels.

  • FOMO : Les gens ne veulent pas passer à côté de technologies bénéfiques, mais peuvent ne pas en comprendre les implications. Ce biais peut éclipser l’évaluation critique et conduire à une adoption prématurée. Ce biais est lié à l'effet Bandwagon (par exemple, la tendance à faire ou à croire des choses parce que tout le monde le fait - ou que les influenceurs le font. Les gens peuvent faire confiance ou se méfier des technologies d'IA simplement parce que cela semble être le sentiment populaire.


  • Biais du statu quo : les gens préfèrent maintenir l’état actuel, ce qui conduit à une résistance à l’adoption de quelque chose de nouveau comme l’IA, quels que soient les avantages potentiels ou la supériorité prouvée. Ce biais peut ralentir l’innovation et l’adoption de technologies susceptibles d’améliorer la vie.


  • Aversion à la perte : ce biais rend la douleur de perdre quelque chose plus puissante que le plaisir de gagner quelque chose de valeur égale. Pour l’IA, cela signifie que la peur de perdre son emploi ou de perdre le contrôle éclipse les avantages en matière de sécurité, d’efficacité et de commodité.

  • Biais d’excès de confiance : surestimation de sa capacité à contrôler ou à comprendre quelque chose. Pour l’IA, cela signifie surestimer ou sous-estimer les risques associés à l’IA.


  • Aversion aux algorithmes/Confiance : les chiffres font peur ! Les gens ont tendance à avoir des préjugés contre les algorithmes, pensant que la prise de décision humaine est supérieure, même lorsque les preuves suggèrent le contraire. D’un autre côté, certains pourraient également avoir une confiance inconditionnelle dans les décisions en matière d’IA, ignorant le potentiel d’erreurs ou de biais dans les systèmes d’IA.


Rationalité économique


Intéressant, non ? Mais la vérité est que tout cela est académique. Nous ne pourrons peut-être même pas prendre cette décision en fin de compte. Les entreprises le font déjà.

De nombreuses entreprises se lancent dans l’intégration de l’IA, principalement parce que le retour sur investissement est souvent plus éloquent que les débats éthiques. Prendre Amazon comme exemple, avec son évolution significative vers l’automatisation. L’efficacité et les avantages économiques sont tangibles et mesurables, et face à l’argent liquide, les critiques morales et sociales semblent soudain plus académiques.


Pourtant, il ne s’agit pas seulement d’un capitalisme au cœur de pierre ; c'est une question de survie et d'adaptation. Les entreprises sont confrontées chaque jour au défi d’équilibrer l’adoption technologique avec les responsabilités éthiques et ESG. L’impact de l’IA sur l’emploi et le bien-être humain ne peut être considéré après coup. Pour des milliers de personnes, la stabilité financière et le bien-être professionnel dépendent de ces décisions. C’est un problème auquel de nombreuses entreprises sont aux prises.


Et c’est ici que la question de l’impératif moral devient plus nuancée. Si l’IA peut rationaliser les opérations, réduire les coûts et même créer de nouvelles opportunités, ne sommes-nous pas également moralement responsables de l’exploration de ces technologies ?


L’astuce consistera à garder cette boussole éthique à portée de main et à garantir qu’en adoptant les gains d’efficacité de l’IA, nous nous protégeons également contre son potentiel de perturbation injuste des moyens de subsistance.

Nous sommes dans une période de transition

Quoi qu’il en soit, nous devons faire attention à nos pas. Nous nous trouvons au bord du précipice d’une nouvelle ère, et une simple avancée solide pourrait nous entraîner dans une chute libre. L’IA n’est plus un fantasme futuriste ; c'est absolument intégré dans notre vie quotidienne et notre travail. C'est excitant – et effrayant comme l'enfer.


L’un des défis les plus importants auxquels nous sommes confrontés est l’accessibilité ou le fossé technologique. L’IA a le potentiel de démocratiser la technologie, en mettant des outils puissants à la disposition d’un public plus large. Cependant, à l’heure actuelle, les promesses de l’IA sont principalement perçues par ceux qui disposent déjà d’un certain niveau d’accès. Il est donc également possible que l’IA exacerbe les inégalités existantes plutôt que de les atténuer.


C’est une période d’ajustement, il faudra donc de la patience, de l’éducation et des mesures proactives pour garantir que les bénéfices de l’IA soient largement distribués. Nous avons le potentiel d’uniformiser les règles du jeu afin que le potentiel de l’IA puisse être libéré pour tout le monde, et pas seulement pour quelques privilégiés.



L’énigme de la coopération


D’accord, c’est donc un paradoxe : pour que l’IA fonctionne de manière optimale aux côtés des humains, elle doit nous être supérieure dans certaines tâches. Mais cette TRÈS supériorité menace de déplacer les rôles humains, alimentant la résistance et la peur parmi nous, mortels.


Ce paradoxe crée un « push-pull » difficile pour l’IA ; c'est pourquoi nous assistons à un débat si houleux sur la moralité. Je pense que la solution pourrait résider dans une suite de philosophies et de technologies de conception émergentes visant à combler le fossé entre l’IA et la coopération humaine de manière éthique. Je vais les énumérer ci-dessous. Cela vaut la peine d’interroger ChatGPT sur :


  • Human-Centric AI Design (HCAI) : garantit que les systèmes d’IA sont développés en plaçant les besoins et les valeurs humains au cœur.

  • Explainable AI (XAI) : démystifie les décisions de l’IA, les rendant compréhensibles et transparentes pour les humains.

  • Cadres d’IA éthiques : guider le développement et le déploiement de systèmes d’IA d’une manière qui respecte les droits et les valeurs de l’homme.

  • IA adaptative/responsive : apprend et s'adapte aux commentaires humains, garantissant une relation synergique.

  • Conception participative : implique les utilisateurs finaux dans le processus de développement de l'IA, en garantissant que leurs besoins et leurs préoccupations sont pris en compte.

  • Intelligence augmentée : met l'accent sur le rôle de l'IA dans l'amélioration des capacités humaines plutôt que dans leur remplacement.

  • IA digne de confiance : renforce la confiance dans les systèmes d'IA grâce à la fiabilité, à la sécurité et aux assurances éthiques.

Vers des voitures autonomes ou pas ?


En conclusion, je prendrai position. Je pense qu’adopter l’IA est un impératif moral. À mon avis, le potentiel de sauver des vies, d’améliorer notre qualité de vie et même de remédier à des inégalités de longue date est trop important pour être ignoré. Toutefois, cela ne signifie pas que nous devons plonger tête première sans considération. À mon avis, nous devons aborder l’IA avec un mélange d’enthousiasme et de prudence, en restant enthousiastes à l’idée d’explorer ses possibilités tout en étant conscients de son impact éthique, social et économique.


Une réflexion réfléchie, des cadres éthiques solides et une gouvernance rigoureuse sont les clés pour libérer le potentiel de l’IA de manière responsable.


Je suis toujours ouvert au débat sur le sujet. Je vais donc vous poser la question. Répondez ici ou sur mon Fil de discussion LinkedIn et dites-moi pourquoi j'ai tort ou raison. J’invite vos réflexions et commentaires sur cette question complexe.


Sommes-nous prêts à adopter l’IA avec le sérieux moral qu’elle exige ?

Êtes-vous prêt à faire votre prochain road trip en voiture autonome ?