Vendredi, l'autorité italienne de protection des données a ordonné à OpenAI d'arrêter le traitement local des données. L'interdiction est due aux inquiétudes croissantes selon lesquelles l'entreprise enfreint le règlement général sur la protection des données (RGPD) de l'Union européenne en raison de la manière dont elle traite les données et du manque de contrôles en place pour les mineurs.
Bien que l'Italie soit peut-être le premier pays à appuyer sur la gâchette de l'utilisation gratuite de ChatGPT, il est clair que les inquiétudes concernant l'IA augmentent rapidement. L'interdiction de l'Italie intervient quelques jours après que des milliers d'experts en IA ont appelé à une pause immédiate sur cette technologie jusqu'à ce que les décideurs politiques aient le temps d'ajuster les réglementations en fonction de l'innovation.
Pourtant, l'interdiction souligne que de telles réglementations sur l'IA existent déjà, du moins dans certaines parties du monde. Les législateurs italiens avaient déjà le pouvoir légal d'interdire OpenAI grâce au RGPD et à ses lois qui protègent les données personnelles des citoyens. Mais que signifie cette interdiction pour l'avenir de l'IA ?
Les lois européennes GDPR sont probablement parmi les plus strictes au monde, mettant l'accent sur la protection des données personnelles avant le gain commercial. Avant l'annonce de l'interdiction de ChatGPT en Italie, les législateurs européens tentaient déjà de déballer les nombreuses questions délicates qui se posent parallèlement à la croissance de la technologie avancée de l'IA.
D'une part, la nature mondiale des données personnelles numériques est de plus en plus difficile à suivre et à gérer.
Par exemple, ChatGPT-4 a précédemment révélé que ses algorithmes étaient formés sur des données extraites d'Internet, notamment des forums ouverts comme Reddit. Il est également connu pour produire de fausses informations sur des personnes directement nommées. Outre les préoccupations évidentes concernant la désinformation, cela rend également des entreprises comme OpenAI vulnérables à une multitude de problèmes liés aux droits des données personnelles des Européens.
Cela ouvre également une boîte de Pandore en ce qui concerne la technologie de l'IA plus largement selon les directives du RGPD. L'interdiction d'OpenAI suggère que les algorithmes d'apprentissage automatique en général peuvent enfreindre le RGPD par défaut, car la technologie dépend d'immenses quantités de données susceptibles d'inclure des informations personnelles à un moment donné.
Le moratoire ouvert appelant à suspendre le développement de l'IA avancée comprenait des noms de premier plan qui ont été des défenseurs notoires du progrès technique et de l'innovation. Ceci est couplé à l'apparition de TikTok devant le Congrès américain , résultant de problèmes similaires d'utilisation des données.
L'Europe et sa législation GDPR sont peut-être actuellement en avance sur les autres pays en matière de réglementation sur la confidentialité des données, mais les événements de ces dernières semaines suggèrent que les progrès des technologies numériques et leur dépendance à l'égard de nos données nécessitent une inspection plus approfondie.
Bien que la façon dont les données sont utilisées par la technologie, commercialement ou autrement, soit une question délicate à laquelle on ne peut répondre du jour au lendemain, Politico a lancé cette patate chaude à ChatGPT lui-même en ce qui concerne spécifiquement la réglementation GDPR.
La réponse nous laisse matière à réflexion : « L'UE devrait envisager de désigner l'IA générative et les grands modèles linguistiques comme des technologies « à haut risque », compte tenu de leur potentiel à créer des contenus préjudiciables et trompeurs. L'UE devrait envisager de mettre en place un cadre pour le développement, le déploiement et l'utilisation responsables de ces technologies, qui comprend des mécanismes de sauvegarde, de suivi et de surveillance appropriés.
Cet article a été initialement publié par Katie Konyn sur 150sec .