paint-brush
La bataille du droit d'auteur contre l'IA : IA fermée contre open-sourcepar@futuristiclawyer
1,125 lectures
1,125 lectures

La bataille du droit d'auteur contre l'IA : IA fermée contre open-source

par Futuristic Lawyer6m2023/06/12
Read on Terminal Reader

Trop long; Pour lire

L'avocat basé au Royaume-Uni, Chris Mammen, explique dans une récente interview avec Vice sur la musique générée par l'IA, que la loi évolue lentement et évolue par analogie. "Quelque chose de nouveau apparaît, et nous découvrons à quoi cela ressemble, puis cela devient progressivement une loi établie". Le problème auquel nous sommes confrontés actuellement avec l'IA générative - des modèles d'IA qui peuvent générer des sorties créatives telles que du texte, des images, de la musique ou des vidéos - est la difficulté de trouver des analogies. En d'autres termes, relier l'IA générative à quelque chose que nous connaissons et comprenons déjà. La technologie sous-jacente est si complexe que comprendre comment elle fonctionne au niveau conceptuel et comment elle doit être réglementée nécessite une sérieuse expansion de l'esprit.
featured image - La bataille du droit d'auteur contre l'IA : IA fermée contre open-source
Futuristic Lawyer HackerNoon profile picture
0-item
1-item

L'avocat basé au Royaume-Uni, Chris Mammen, explique dans une récente interview avec Vice sur la musique générée par l'IA , que la loi évolue lentement et évolue par analogie. " Quelque chose de nouveau arrive, et nous trouvons à quoi cela ressemble, et puis cela devient progressivement une loi établie ".

Le problème auquel nous sommes confrontés actuellement avec l'IA générative - des modèles d'IA qui peuvent générer des sorties créatives telles que du texte, des images, de la musique ou des vidéos - est la difficulté de trouver des analogies. En d'autres termes, relier l'IA générative à quelque chose que nous connaissons et comprenons déjà. La technologie sous-jacente est si complexe que comprendre comment elle fonctionne au niveau conceptuel et comment elle devrait être réglementée nécessite une sérieuse expansion de l'esprit.

Comme pour les médias sociaux et Internet, les modèles d'IA tels que ChatGPT d'OpenAI ou leur modèle texte-image DALL-E 2 sont d'une simplicité trompeuse à utiliser. Pourtant, il y a évidemment beaucoup de choses qui se passent sous le capot que nous ne comprenons pas du tout. L'écart entre l'expérience utilisateur et tous les éléments techniques compliqués qui se trouvent en dessous est l'endroit où les éléments criminels et contraires à l'éthique peuvent passer inaperçus.

L'effet boîte noire dans la crypto

Nous avons clairement vu cet "effet boîte noire" dans le monde financier, récemment dans le secteur de la cryptographie. Peu de partisans de la cryptographie, y compris moi-même, avaient une compréhension technique approfondie du fonctionnement de la cryptographie, et nous ne savions pas comment les échanges centralisés fonctionnaient. Dans la finance traditionnelle, c'est là que nous comptons généralement sur la garantie et la surveillance du gouvernement. Mais dans une industrie aussi nouvelle et complexe que la cryptographie, il n'y en avait presque pas. L'adoption relativement large, la complexité technique, le manque de surveillance et le fossé des connaissances entre les développeurs et les utilisateurs ont créé les conditions idéales pour le crime et l'exploitation en masse. L'année dernière, les échanges cryptographiques se sont effondrés en cascade, plus de 3 milliards de dollars ont été volés sur les plateformes DeFi en 2022 et des centaines de milliers de personnes ont été laissées en ruine financière.

L'industrie de l'IA est bien sûr très différente de l'industrie de la cryptographie, mais les mêmes conditions de criminalité et d'exploitation sont présentes. Les modèles d'IA sont largement adoptés, plus faciles à utiliser que la cryptographie, plus complexes techniquement, il n'y a pas beaucoup de surveillance et le fossé des connaissances entre les utilisateurs et les développeurs est sans doute encore plus large qu'avec la cryptographie. Heureusement, il existe de nombreuses campagnes de sensibilisation sur les dangers et les risques de l'IA, là où des campagnes similaires en crypto se sont noyées dans le bruit.

La question du droit d'auteur

L'utilisation de matériel protégé par le droit d'auteur dans les modèles d'IA générative est un domaine où les lois et les cadres existants sont remis en question. Dans mon article de la semaine dernière, j'ai écrit sur l'interprétation par l'UE des modèles fondamentaux . Cette semaine, je vais me concentrer sur la différence entre les modèles d'IA à source fermée et à source ouverte et présenter Stable Diffusion, un modèle d'image d'IA à source ouverte populaire qui a été frappé par des poursuites pour droit d'auteur plus tôt cette année sous deux angles différents. Je prévois de publier un autre article sur les poursuites et les implications sur le droit d'auteur dans les prochaines semaines.

Source ouverte vs source fermée

La formation des modèles de base est une affaire coûteuse en termes de temps, d'argent et de ressources informatiques. En général, seules les entreprises BigTech aux poches profondes peuvent se permettre de débourser l'investissement initial. De la même manière, les entreprises à l'origine des modèles de base ont généralement un intérêt pour l'IA à source fermée. Les coûts de développement et de formation de plusieurs millions de dollars sont difficiles à récupérer si les concurrents peuvent accéder à tous les ingrédients et utiliser leur sauce secrète.

Une exception importante est le LLaMA de Meta que Mark Zuckerberg et l'équipe de recherche sur l'IA de Meta ont décidé de manière controversée de rendre public . LLaMA est un grand modèle de langage (LLM) publié à différentes tailles de paramètres 7B à 65B. Même la version de petite à moyenne taille, LLaMA-13B, peut surpasser le GPT-3 d'OpenAI, bien qu'elle soit 10 fois plus petite. GPT-3 était révolutionnaire et leader du marché il y a à peine trois ans.

Yann LeCun, scientifique en chef de l'IA chez Meta, a déclaré que "la plate-forme qui gagnera sera ouverte". Il soutient que les progrès de l'IA sont plus rapides de cette façon et que les consommateurs et les gouvernements refuseront d'adopter l'IA à moins qu'elle ne soit hors du contrôle d'entreprises comme Google et Meta.

Le contre-argument à l'IA open source (qui signifie rendre le code source disponible) est que les acteurs malveillants peuvent utiliser le code pour créer des applications néfastes, diffuser de la désinformation, commettre des fraudes, des cybercrimes et bien d'autres mauvaises choses. Mark Zuckerberg a récemment reçu une lettre de deux sénateurs américains qui critiquaient la décision de rendre LLaMA accessible au public. Les sénateurs ont conclu dans la lettre que le « manque de considération publique approfondie et approfondie des ramifications de sa diffusion prévisible à grande échelle » était finalement un « mauvais service au public ».

L'attraction vers l'open-source

Aujourd'hui, moins de trois mois après sa sortie , un tas de modèles open-source reposent sur les épaules de LLaMa. Vicuna-13B, par exemple, est un chatbot open source qui a été formé en affinant LLaMA sur les conversations partagées par les utilisateurs collectées à partir de ShareGPT (une extension Chrome qui permet aux utilisateurs de partager leurs conversations avec ChatGPT). Selon les évaluations de GPT-4, Vicuna-13B atteint plus de 90 % de la qualité de ChatGPT d'OpenAI et de Bard de Google avec un coût de formation d'environ 300 $ !

Indépendamment des problèmes de concurrence et de sécurité, il existe une forte tendance à l'IA open source. Des modèles nouveaux et améliorés sont publiés très souvent. Sur le HuggingFace Open LLM Leaderboard , le modèle le plus performant actuellement est le Falcon 40B , qui a récemment détrôné le LLaMA de Meta. Le Falcon 40B a été développé par le Technology Innovation Institute d'Abu Dhabi avec l'aide d'Amazon .

Le jury ne sait toujours pas si le développement open source pourrait potentiellement dominer l'utilisation de l'IA générative à l'avenir. Dans un document interne de Google publié par SemiAnalysis, un ingénieur senior de Google a fait valoir que Google et OpenAI "n'ont pas de douves" et seront finalement dépassés par l'IA open source. Il écrit que « les modèles open-source sont plus rapides, plus personnalisables, plus privés et livre pour livre plus performants ».

IA de stabilité et diffusion stable

L'une des entreprises en première ligne de l'IA open source est Stability AI . La société a été fondée par l'ancien gestionnaire de fonds spéculatifs Emad Mostaque. Selon son site Web, Stability AI a depuis son lancement en 2021 amassé une armée de plus de 140 000 développeurs et sept centres de recherche à travers le monde. La communauté des chercheurs développe des modèles d'IA à des fins différentes, telles que l'imagerie, le langage, le code, l'audio, la vidéo, le contenu 3D, la conception, la biotechnologie et d'autres recherches scientifiques.

Le produit pour lequel Stability AI est le plus connu à ce jour est le modèle d'image Stable Diffusion. Stable Diffusion est un modèle d'image AI qui peut générer ou modifier des images à partir d'invites de texte. Il est sorti en août 2022 , peu de temps après que la sensation Internet virale d'OpenAI, DALL-E 2, ait été diffusée en privé à 1 million d'utilisateurs sur la liste d'attente. De nombreux membres de la communauté de l'IA considéraient Stable Diffusion comme une étape révolutionnaire . Non seulement il correspondait, voire dépassait, les capacités des modèles texte-image contemporains, volumineux et fermés tels que DALL-E 2 ou Imagen de Google, mais il était open source.

Selon la licence Stable Diffusions , n'importe qui peut utiliser le modèle pour créer des applications commerciales, étudier son architecture, s'appuyer dessus et modifier sa conception dans le respect de la loi, de l'éthique et du bon sens. Différent des modèles d'image à source fermée, Stable Diffusion peut être téléchargé et exécuté localement sur un PC de jeu moyen. Pour les utilisateurs occasionnels sans compétences en codage, Stable Diffusion est également accessible via l'application Web DreamStudio ou la nouvelle application Web open source StableStudio .

En parallèle, Stable Diffusion a en fait été développé par une équipe de chercheurs de la Ludwig-Maximilians-Universität de Münich, tandis que Stability AI a financé les ressources informatiques pour former le modèle. La stabilité a été critiquée pour avoir pris trop de crédit indu, car l'Université de Münich a fait tous les gros travaux qui ont abouti à Stable Diffusion. Dans un article de Forbes publié dimanche dernier , le fondateur de Stability, Emad Mosque, a été dépeint comme un exagérateur pathologique ayant tendance à mentir. Le professeur Björn Ommer, chef de l'équipe de recherche derrière Stable Diffusion, a déclaré à Forbes qu'il espérait faire connaître les travaux de son laboratoire, mais tout le service de presse de son université était en vacances à l'époque (de telles choses ne peuvent se produire que dans les universités publiques).

Diffusion stable et tempête de droits d'auteur

L'ouverture de Stable Diffusion est un cadeau pour les chercheurs, ainsi que pour les gouvernements, les concurrents, les régulateurs et les défenseurs sanguinaires du droit d'auteur. Dans la dernière catégorie, on retrouve Matthew Butterick et son équipe juridique qui représente trois artistes indépendants dans un recours collectif contre Stability AI, MidJourney et DeviantArt .

Selon l'avocat Matthew Butterick : « [Stable Diffusion] est un parasite qui, s'il est autorisé à proliférer, causera un préjudice irréparable aux artistes, maintenant et à l'avenir.

Je dirais que Butterick a en quelque sorte raison quant à sa caractérisation de la diffusion stable et des modèles d'image d'IA modernes. Ils aspirent en quelque sorte la créativité du travail original, le mélangent à grande échelle et menacent les moyens de subsistance des artistes qui ont involontairement et sans le savoir aidé à former le modèle avec des micro-contributions.

Cependant, le recours collectif est criblé de tant d'inexactitudes juridiques et techniques, de malentendus et de lacunes que je ne peux que me demander si l'équipe juridique était complètement folle lorsqu'elle a rédigé la première ébauche de l'assignation. Une autre théorie est que Butterick et co essaient intentionnellement de déformer le fonctionnement de la technologie pour confondre le public ou les juges. Dur à dire.

Dans mon prochain article, nous examinerons plus en détail le procès frivole et expliquerons pourquoi il ne gratte pas la démangeaison du droit d'auteur au bon endroit.

Également publié ici .