paint-brush
Alors que nous apprenons à utiliser l'IA, c'est apprendre à nous utiliserpar@thesociable
769 lectures
769 lectures

Alors que nous apprenons à utiliser l'IA, c'est apprendre à nous utiliser

par The Sociable5m2023/07/29
Read on Terminal Reader

Trop long; Pour lire

L'historien Yuval Noah Harari a déclaré au sommet mondial AI for Good de l'ONU que "pendant que nous apprenons à utiliser l'IA, elle apprend à nous utiliser". Harari a estimé que l'IA devrait continuer à être développée, mais qu'elle ne devrait pas être déployée sans contrôles de sécurité et règlements. L'historien a comparé le développement de l'IA à la présence d'un virus en laboratoire, affirmant qu'il était acceptable de le développer, mais pas de le déployer auprès du public.
featured image - Alors que nous apprenons à utiliser l'IA, c'est apprendre à nous utiliser
The Sociable HackerNoon profile picture


L'historien Yuval Noah Harari a déclaré au sommet mondial AI for Good de l'ONU que "pendant que nous apprenons à utiliser l'IA, elle apprend à nous utiliser" et que nous devrions ralentir son déploiement, pas son développement.


S'exprimant jeudi lors de la session du sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) des Nations unies sur « Des garde-corps nécessaires pour une IA sûre et responsable », Harari a estimé que l'IA devrait continuer à être développée, mais qu'elle ne devrait pas être déployée sans contrôles et règles de sécurité.


"Alors que nous apprenons à utiliser l'IA, elle apprend à nous utiliser"

Yuval Noah Harari, Sommet mondial AI for Good, 2023


« Pendant que nous apprenons à utiliser l'IA , elle apprend à nous utiliser », a déclaré Harari, ajoutant : « Il est très difficile d'arrêter le développement [de l'IA] parce que nous avons cette mentalité de course aux armements . Les gens sont conscients — certains d'entre eux — des dangers, mais ils ne veulent pas être laissés pour compte.


" Mais la chose vraiment cruciale, et c'est la bonne nouvelle, la chose cruciale est de ralentir le déploiement - pas le développement ", a-t-il ajouté.


L'historien a comparé le développement de l'IA à la présence d'un virus en laboratoire, affirmant qu'il était acceptable de le développer, mais pas de le déployer auprès du public.


« C'est comme si vous aviez ce virus très dangereux dans votre laboratoire, mais vous ne le divulguez pas dans la sphère publique ; C'est très bien"

Yuval Noah Harari, Sommet mondial AI for Good, 2023


« Vous pouvez avoir un outil d'IA extrêmement sophistiqué dans votre laboratoire tant que vous ne le déployez pas dans la sphère publique. C'est moins dangereux », a déclaré Harari.


« Vous savez, c'est comme si vous aviez ce virus très dangereux dans votre laboratoire, mais vous ne le divulguez pas dans la sphère publique ; C'est très bien. Il y a là une marge de sécurité. »


Tout comme les sociétés pharmaceutiques et les constructeurs automobiles doivent se soumettre à des contrôles de sécurité, Harari a fait valoir que la même chose devrait s'appliquer à l'IA.


"Maintenant, il est possible pour la première fois dans l'histoire de créer des milliards de fausses personnes […] Si vous ne pouvez pas savoir qui est un vrai humain et qui est un faux humain, la confiance s'effondrera, et avec elle au moins, la société libre ”

Yuval Noah Harari, Sommet mondial AI for Good, 2023


Au sujet des deepfakes et des bots générés par l'IA, Harari a déclaré : " Maintenant, il est possible pour la première fois dans l'histoire de créer de fausses personnes - de créer des milliards de fausses personnes - que vous interagissez avec quelqu'un en ligne et que vous ne connaissez pas". c'est un vrai être humain ou un bot.


« Dans un an probablement, cette conversation que nous avons maintenant, il sera presque impossible de savoir si vous parlez avec un deepfake ou avec un vrai humain.


"Si cela est autorisé, cela fera à la société ce que la fausse monnaie menace de faire au système financier."


"Nous devrions mieux comprendre son impact potentiel [IA] sur la société, sur la culture, sur la psychologie et sur l'économie du monde avant de le déployer dans la sphère publique"

Yuval Noah Harari, Sommet mondial AI for Good, 2023


L'historien a ajouté que « si vous ne pouvez pas savoir qui est un vrai humain et qui est un faux humain, la confiance s'effondrera, et avec elle au moins la société libre. Peut-être que les dictatures seront capables de gérer d'une manière ou d'une autre, mais pas les démocraties.


Harari a précisé qu'il était acceptable de créer de fausses personnes tant qu'elles étaient étiquetées comme telles et non présentées comme réelles – "J'ai besoin de savoir si c'est un vrai humain ou non", a-t-il déclaré.


L'Union internationale des télécommunications est l'agence spécialisée des Nations Unies pour les technologies de l'information et de la communication – TIC.



« Nous ne sommes plus des âmes mystérieuses ; nous sommes maintenant des animaux piratables »

Yuval Noah harari, Forum économique mondial, 2020



Harari a pris la parole à plusieurs reprises lors des réunions annuelles du Forum économique mondial (WEF) à Davos, où il a déclaré : « Nous, les humains, devrions nous habituer à l'idée que nous ne sommes plus des âmes mystérieuses ; nous sommes maintenant des animaux piratables.


S'exprimant au WEF en 2020 , Harari a déclaré : « Pour pirater des êtres humains, il faut beaucoup de connaissances biologiques, beaucoup de puissance de calcul, et surtout beaucoup de données.


« Si vous avez suffisamment de données sur moi et suffisamment de puissance de calcul et de connaissances biologiques, vous pouvez pirater mon corps, mon cerveau, ma vie. Vous pouvez atteindre un point où vous me connaissez mieux que je ne me connais moi-même.


Avec ce pouvoir de pirater des êtres humains, a déclaré Harari, "[il] peut bien sûr être utilisé à de bonnes fins, comme fournir de bien meilleurs soins de santé, mais si ce pouvoir tombe entre les mains d'un Staline du 21e siècle, le résultat sera le pire totalitaire". régime dans l'histoire de l'humanité, et nous avons déjà un certain nombre de candidats pour le poste de Staline du 21e siècle.


"Nous ne devrions pas réglementer l'IA tant que nous ne verrons pas un préjudice significatif qui se produit réellement - pas des scénarios imaginaires"

Michael Schwarz, Sommet sur la croissance du WEF, 2023


S'exprimant lors du WEF Growth Summit 2023 lors d'un panel sur " Growth Hotspots: Harnessing the Generative AI Revolution ", Michael Schwarz de Microsoft a fait valoir qu'en ce qui concerne l'IA, il serait préférable de ne pas la réglementer jusqu'à ce que quelque chose de mal se produise, afin de ne pas supprimer les avantages potentiellement plus importants.


« Je suis tout à fait convaincu que oui, l'IA sera utilisée par de mauvais acteurs ; et oui, cela causera de vrais dégâts; et oui, nous devons être très prudents et très vigilants », a déclaré Schwarz au panel du WEF.


Interrogé sur la réglementation de l'IA générative, l'économiste en chef de Microsoft a expliqué :

« Quelle devrait être notre philosophie concernant la réglementation de l'IA ? De toute évidence, nous devons le réglementer, et je pense que ma philosophie est très simple.


« Nous devrions réglementer l'IA de manière à ne pas jeter le bébé avec l'eau du bain .

« Donc, je pense que la réglementation ne devrait pas être basée sur des principes abstraits.


"En tant qu'économiste, j'aime l'efficacité, donc d'abord, nous ne devrions pas réglementer l'IA tant que nous ne verrons pas un préjudice significatif qui se produit réellement - pas des scénarios imaginaires ."


Le 23 janvier 2023, Microsoft a prolongé son partenariat avec OpenAI - les créateurs de ChatGPT - en investissant 10 milliards de dollars supplémentaires en plus du "1 milliard de dollars que Microsoft a versé dans OpenAI en 2019 et un autre tour en 2021", selon Bloomberg .



Cet article a été initialement publié par Tim Hinchliffe sur The Sociable.