paint-brush
Ce que la réglementation du gouverneur Newsom sur les deepfakes signifie pour les élections américaines de 2024par@victordey
Nouvelle histoire

Ce que la réglementation du gouverneur Newsom sur les deepfakes signifie pour les élections américaines de 2024

par Victor Dey4m2024/10/21
Read on Terminal Reader

Trop long; Pour lire

Le gouverneur Newsom a signé cinq projets de loi axés sur l'IA. Trois d'entre eux visent à lutter contre la diffusion de fausses informations liées aux élections. Ces lois font suite à un incident très médiatisé impliquant le PDG de X, Elon Musk. Musk a partagé une vidéo deepfake qui présentait à tort la vice-présidente Kamala Harris comme une « recrue de la diversité ».
featured image - Ce que la réglementation du gouverneur Newsom sur les deepfakes signifie pour les élections américaines de 2024
Victor Dey HackerNoon profile picture
0-item

Le gouverneur de Californie Gavin Newsom a promulgué trois nouvelles lois ciblant l'utilisation de deepfakes IA dans les campagnes politiques avant les élections américaines de 2024.


Le gouverneur de Californie Gavin Newsom a adopté trois projets de loi majeurs le mois dernier pour limiter l'utilisation de l'intelligence artificielle (IA) dans la création d'images et de vidéos « deepfake » trompeuses pour les campagnes politiques. Alors que l'État se prépare aux élections de novembre, les actions du gouverneur Newsom étendent le cadre juridique californien autour de l'IA, avec l'adoption de cinq projets de loi axés sur l'IA, dont trois s'attaquent à la propagation de fausses informations liées aux élections. Le durcissement de la réglementation intervient après un incident très médiatisé impliquant le PDG de X, Elon Musk, qui a partagé une vidéo de l'événement. vidéo deepfake qui présentait à tort la vice-présidente Kamala Harris comme une « recrue de la diversité ».


Parmi les réglementations promulguées, la loi sur la défense de la démocratie contre les tromperies deepfake ( AB 2655 ) exige que les plateformes de médias sociaux limitent la publication par les utilisateurs de contenus « trompeurs », y compris les médias modifiés dénaturant les propos ou les actions d'une personnalité publique. La loi s'appuie sur une loi de 2019 ( AB 730 ) signé par Newsom, qui rend illégale la diffusion de contenus trompeurs destinés à déshonorer les candidats politiques. Une autre loi, l’AB 2839, décrite comme une « mesure d’urgence », interdit la diffusion de faux contenus dans les 120 jours précédant une élection en Californie. Une troisième, l’AB 2355, impose que les publicités ou vidéos politiques générées à l’aide de l’IA divulguent ces informations aux téléspectateurs pour une campagne politique transparente.


« La protection de l’intégrité des élections est essentielle à la démocratie, et il est essentiel de veiller à ce que l’IA ne soit pas déployée pour saper la confiance du public par la désinformation, en particulier dans le climat politique tendu actuel », a-t-il déclaré dans un article de blog . « Ces mesures aideront à lutter contre l’utilisation néfaste des deepfakes dans les publicités politiques et d’autres contenus, l’un des nombreux domaines dans lesquels l’État se montre proactif pour favoriser une IA transparente et digne de confiance. »


Ces lois arrivent à un moment crucial, car le contenu deepfake créé par des modèles d'IA générative (genAI) a évolué au point que les yeux humains ne peuvent plus faire la distinction entre le contenu réel et celui généré par l'IA. Selon une étude de 2024 Rapport de l'Agence européenne chargée de l'application des lois , 90 % du contenu en ligne pourrait être généré de manière synthétique d'ici 2026. De même, une étude récente de KPMG intitulée « Deepfakes : une menace réelle , a constaté qu'au cours des dernières années, les deepfakes ont augmenté de 900 %.


Les efforts législatifs de Newsom ont toutefois déclenché un débat sur les réseaux sociaux concernant l'avenir de la technologie. Si ses partisans considèrent que ces lois sont cruciales pour protéger les électeurs de la désinformation électorale, ses détracteurs, dont Elon Musk, soutiennent que ces lois étouffent la liberté d'expression. Dans un message publié sur X, Elon Musk a comparé le gouverneur Newsom au « Joker ».



« Le contenu généré par l’IA va au-delà de ce que nous pouvons comprendre comme étant réel, une imitation ou une parodie. Ce qui est clair, c’est que le contenu généré par l’IA est utilisé à des fins intentionnelles. Au minimum, nous devons mettre en place des systèmes qui fournissent un contexte sur les enregistrements, vidéos et images générés par l’IA », Kevin Guo , PDG et co-fondateur de la plateforme de détection de contenu genA.I. Ruche , m’a-t-il dit. « Les plateformes et les organisations doivent adopter ces modèles pour protéger les consommateurs et empêcher les campagnes de désinformation à grande échelle d’influencer les élections. »


Gail Pellerin, membre de l’Assemblée et auteure du projet de loi AB 2839, a souligné l’urgence de s’attaquer aux dangers des deepfakes. « À moins de 50 jours des élections générales, il est urgent de se protéger contre les contenus trompeurs et modifiés numériquement qui peuvent interférer avec l’élection. Avec la promulgation de l’AB 2839, la Californie prend position contre l’utilisation manipulatrice de la technologie deepfake pour tromper les électeurs », a-t-elle déclaré. dit dans une déclaration.


Les lois californiennes sur les deepfakes pourraient servir de modèle à d'autres États. Alors que 20 États, dont New York, le Texas et la Floride, ont déjà adopté degrés variables de régulation En ce qui concerne les deepfakes liés aux élections, l'efficacité de ces lois reste une grande question. Les géants de la technologie, dont Meta et X, ont récemment face à la critique pour une modération de contenu genA.I. incohérente, tandis que d'autres comme Microsoft ont déjà intégré des modèles d'IA spéciaux tels que Sécurité du contenu Azure AI , pour surveiller et modérer le contenu généré par l'IA. Les experts en technologie suggèrent que si l'extension de la période de protection à 120 jours est un pas dans la bonne direction, elle ne suffira pas à elle seule à arrêter la propagation de la désinformation générée par l'IA.


« La difficulté ne réside pas seulement dans la création de lois, mais aussi dans leur application sur des plateformes numériques qui s’étendent sur plusieurs juridictions, tant nationales qu’internationales. Il est essentiel de concevoir des cadres suffisamment adaptables pour s’adapter aux avancées rapides de l’IA », Dominique Heinrich , responsable de la conception de l’IA chez Coca-Cola, m’a expliqué : « Les cadres juridiques, bien qu’importants, seront toujours en retard sur la courbe technologique. Nous ne pouvons pas nous fier uniquement aux lois ; nous devons nous concentrer sur la création de systèmes d’IA capables de s’auto-détecter et de s’adapter en temps réel. Nous verrons bientôt un monde où l’IA gouvernera l’IA sous la surveillance humaine. »


Cet exemple met en évidence la complexité croissante de l’équilibre entre l’innovation en matière d’IA et les garanties sociétales. Pour l’instant, la Californie entend montrer l’exemple, mais la question de savoir si ces mesures permettent de lutter efficacement contre la désinformation générée par l’IA ou de restreindre la liberté d’expression déterminera l’avenir de l’IA dans les campagnes politiques pour les années à venir.