paint-brush
Quel est l'avenir des droits de l'IA ?par@dermory
658 lectures
658 lectures

Quel est l'avenir des droits de l'IA ?

par Derek Moryson4m2023/01/30
Read on Terminal Reader

Trop long; Pour lire

La Maison Blanche a dévoilé une déclaration des droits de l'IA. Le document est une vision de la manière dont le gouvernement américain, les entreprises technologiques et les citoyens devraient travailler ensemble pour tenir l'IA et le secteur de l'IA responsables. À mesure que l'IA devient plus avancée, voire autonome, à quel moment existe-t-il une exigence morale d'au moins envisager l'extension des droits de l'homme pour l'IA ?
featured image - Quel est l'avenir des droits de l'IA ?
Derek Moryson HackerNoon profile picture


"Terrifiant" est un mot souvent utilisé de nos jours par les technologues et les gouvernements lorsqu'ils discutent de l'avenir de l'intelligence artificielle (IA) et de son impact potentiel sur l'humanité.


Ils brossent le tableau d'un avenir où l'IA a volé des emplois, entraîné davantage d'inégalités et injustement classé nos écoliers avec des algorithmes défectueux.


"Il était temps" a été la réponse de la politique et de l'éthique de l'IA aux nouvelles il y a plusieurs mois lorsque l'agence de conseil en science et technologie de la Maison Blanche a dévoilé une déclaration des droits de l'IA.


Le document est la vision du président Biden sur la façon dont le gouvernement américain, les entreprises technologiques et les citoyens devraient travailler ensemble pour tenir l'IA et le secteur de l'IA responsables à l'avenir.


Bien que nous devions tenir compte et planifier les dommages potentiels que l'IA pourrait causer, certains soutiennent que la discussion ne doit pas s'arrêter là.


Alors que l'IA devient plus avancée au point où elle pourrait devenir consciente, voire autonome, à quel moment y a-t-il une exigence morale d'au moins envisager l'extension des droits de l'homme pour l'IA ?


C'est peut-être une idée stupide. En effet, des questions comme celle-ci appartiennent au domaine de la philosophie, mais elles pourraient devenir des questions de politique publique à l'avenir.


Récemment, j'ai fini de lire Klara et le soleil de Kazuo Ishiguro, un roman futuriste sur une mère qui achète un « ami artificiel » (AF) très intelligent pour sa fille en phase terminale, Josie.


Le livre se déroule de nombreuses années dans le futur où nous apprenons que l'IA a eu un impact existentiel négatif sur les humains. Dans le nouveau monde, les enfants sont génétiquement modifiés à la naissance pour concurrencer l'IA, ce qui fait que certains d'entre eux développent des maladies graves et inexpliquées.


Klara, l'AF, semble être une entité consciente et pensante, capable d'apprendre et de ressentir des émotions. À mon avis, l'un des thèmes clés du livre est la question de savoir si l'IA peut apprendre à aimer, par elle-même, sans programmation.


Tout au long du texte, le lecteur développe un attachement à Klara en raison de sa profonde préoccupation pour la santé et le bien-être de Josie. En fin de compte, c'est à chaque lecteur de déterminer si Klara aime Josie ou s'il réalise simplement l'objectif de sa programmation. C'est difficile à discerner.


Josie fait un rétablissement miraculeux et continue à vivre sa vie. Cependant, Klara est rejetée et attend son sort dans une casse avec d'autres AF abandonnés. À la fin du roman, on nous présente une image de Klara regardant le soleil, se remémorant son temps avec Josie et les souvenirs heureux qu'elle a créés avec elle.


L'image est obsédante à cause de l'amour apparent que l'AF a pour Josie; Klara a développé un profond intérêt et une connexion avec l'adolescente, faisant passer les intérêts de Josie avant les siens.


L'utilisation et l'abus de Klara tout au long du roman, je pense, soulève la question philosophique de savoir si les droits de l'homme pour l'IA devront être pris en compte à l'avenir, ce qui entraîne de sérieuses questions éthiques et philosophiques sur ce que signifie être humain.


Alors que la technologie de l'IA devient de plus en plus sophistiquée, de nombreux experts s'attendent à ce que l'intelligence de l'IA rivalise un jour avec la nôtre. Bien qu'il y ait peu de discussions sur le sujet, la robotique forcée au service des humains pourrait être considérée comme une nouvelle forme d'esclavage. Des robots comme Klara, peuvent être utilisés comme moyen pour parvenir à une fin (amitié temporaire, par exemple) et jetés.


Les opposants à ce débat peuvent soutenir que la différence entre un esclave humain et un esclave robot est le désir ou l'ouverture à servir. Et d'autres pourraient soutenir que l'utilisation, l'abus ou le rejet de l'IA a peu d'impact sur les gens et le tissu social, mais où tracer la ligne ?


Il existe de nombreuses expériences de pensée philosophique et des tests que les philosophes moraux utilisent pour déterminer si une entité a le libre arbitre et/ou le libre arbitre pour construire une justification pour établir des droits.


En repensant à un cours de philosophie de l'esprit que j'ai suivi en tant que majeure en philosophie il y a de nombreuses années, une discussion clé dont je me souviens avoir été de savoir si la capacité de ressentir la douleur (physique ou psychologique) était un motif pour établir les droits de l'homme.


Si l'entité en question peut ressentir une douleur physique ou psychologique (et souhaite s'en débarrasser), on a pensé que ces faits pouvaient entraîner certains droits. Une entité n'a pas nécessairement besoin d'expérimenter la conscience (et le monde) de la même manière qu'un être humain pour garantir des droits, au contraire, la capacité de souffrir contient ou donne lieu à ces droits.


Ce point de vue est celui qui est exposé par les éthiciens des animaux et était la position du 18e philosophe anglais Jeremy Bentham, qui a soutenu que la question importante concernant les animaux n'est pas « Peuvent-ils raisonner ? ni Peuvent-ils parler? mais Peuvent-ils souffrir ?


Certes, il existe des droits contre la maltraitance des animaux ; quand les enfants partent à l'université et que le chien de la famille a moins d'intérêt, il n'est pas emmené à la casse comme Klara l'était.


En effet, la loi reconnaît que les animaux domestiques doivent être protégés car ils peuvent souffrir et le tissu moral de la société est affaibli s'ils sont autorisés à être maltraités.


Des arguments similaires pourraient être avancés pour protéger l'IA si elle peut un jour penser, ressentir et souffrir. Cependant, à ce stade, l'IA est loin d'atteindre l'un de ces états mentaux et physiques et peut-être, comme le soutiennent certains experts, ne le fera jamais.


Pourtant, la question philosophique de savoir si nous devons étendre les droits de l'homme à l'IA si certaines conditions sont remplies est intéressante.


Tout d'abord, cependant : protégez-vous des dommages que l'IA pourrait causer à l'humanité et à la société, puis considérez d'autres questions clés. L'IA continuera d'être une question urgente pour les décideurs politiques dans un avenir prévisible, et à mesure que la conversation évolue, la réflexion sur les droits de l'IA doit également l'être.



Également publié ici.