"La Lettre" n'était que le début. Bienvenue au salon de la politique de l'IA. Prenez du pop-corn, ou mieux encore, montez sur le ring.
"J'ai reçu une lettre du
gouvernementFuture of Life Institute l'autre jourJe l'ai ouvert et lu, il a dit qu'ils étaient des ventouses
Ils me voulaient pour leur armée ou quoi que ce soit
Imaginez-moi m'en foutre, j'ai dit jamais
Voici une terre qui s'en fout
À propos d'un frère comme moi et moi parce qu'ils ne l'ont jamais fait
Je n'étais pas avec ça, mais juste à la minute où il m'est venu à l'esprit
Les ventouses avaient un pouvoir
d'autorité»
Paroles de la chanson Black Steel In The Hour Of Chaos par Public Enemy
Le lien entre Public Enemy et l'état de l'IA aujourd'hui n'est peut-être pas immédiatement évident. Mais si vous échangez "gouvernement" pour "Future of Life Institute" et "autorité" pour "pouvoir", ces paroles peuvent être une assez bonne métaphore de ce qui se passe dans l'IA aujourd'hui.
« The Letter », comme on l'appelle sur Twitter, est une lettre ouverte compilée par le Future of Life Institute (FLI) et signée par un nombre toujours croissant de personnes. Il appelle à une pause dans la formation de modèles d'IA plus grands que GPT-4 afin de "développer et mettre en œuvre un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA".
La lettre de FLI mentionne que "la recherche et le développement de l'IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d'aujourd'hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux". Une déclaration avec laquelle peu seraient en désaccord, y compris les personnes qui ont soulevé des préoccupations justifiées au sujet de « La Lettre ».
J'ai aussi signé "La Lettre". Quand je l'ai fait, il y avait moins de 1 000 signataires. Aujourd'hui, il en compte environ 50.000 selon la FAQ du FLI . Je n'ai pas signé car je suis tout à fait d'accord avec FLI ou son encadrement, loin de là. J'ai également des réserves sur la déclaration ci-dessus, et je suis extrêmement conscient et critique du soi-disant battage médiatique sur l'IA.
J'ai signé "La Lettre" en espérant qu'elle pourrait attirer l'attention et lancer une conversation très nécessaire, et c'est ce qu'elle a fait. La seule autre fois, je me souviens, que le contrecoup de l'IA a alimenté un débat aussi animé, c'était en 2020. C'était à l'époque où Google avait licencié un certain nombre de chercheurs qui avaient fait part de leurs inquiétudes quant à la pratique consistant à créer des modèles de langage IA de plus en plus grands dans un article connu sous le nom de " Perroquets stochastiques ».
Bien sûr, 2,5 ans, c'est toute une vie en IA. C'était avant ChatGPT, avant la percée de l'IA dans le courant dominant . Mais cela ne signifie pas nécessairement non plus que les questions sont largement comprises aujourd'hui, même si elles sont vivement débattues.
Une première ligne de critique contre "La Lettre" cite ses origines et les agendas des personnes qui l'ont rédigée et signée - et à juste titre. En effet, l'Institut du Futur de la Vie est une organisation d'Altruisme Efficace, Longtermiste .
En un mot, cela signifie des gens qui sont plus préoccupés par un avenir techno-utopique hypothétique que par les vrais problèmes que l'utilisation de la technologie cause aujourd'hui. Même si la FAQ du FLI essaie également de traiter les dommages actuels, d'une manière ou d'une autre, les types de Peter Thiel et Elon Musk citant la «concentration du pouvoir économique» comme préoccupation ne semblent pas très convaincants.
Le philosophe et historien Emile P. Torres, qui était auparavant un initié du Lontermisme, a inventé l'acronyme TESCREAL pour décrire le Lontermisme et sa famille d'idéologies. Affirmer que nous devons aller sur Mars pour empêcher l'humanité de détruire la Terre ou que nous avons besoin d'une IA super avancée pour résoudre nos problèmes en dit long sur la pensée TESCREAL.
Ces personnes n'ont pas votre meilleur intérêt à cœur, et je ne me voyais certainement pas signer une lettre rédigée par FLI et cosignée par Elon Musk. Cela dit, cependant, il est également difficile de ne pas le faire. Le montant du financement, de l'influence et de la publicité que les types d'Elon Musk recueillent est difficile à ignorer, même pour leurs détracteurs.
Exemple : DAIR , l'Institut de recherche sur l'IA distribuée, créé par l'éthicien en IA Timnit Gebru. Gebru était l'une des personnes qui ont été licenciées de Google en 2020. DAIR a été fondée en 2021 pour permettre le type de travail que Gebru souhaite faire .
DAIR est "enraciné dans la conviction que l'IA n'est pas inévitable, que ses méfaits sont évitables et que, lorsque sa production et son déploiement incluent diverses perspectives et processus délibérés, cela peut être bénéfique". Cela semble louable.
DAIR emploie un certain nombre de chercheurs pour travailler sur sa mission et a recueilli 3,7 millions de dollars auprès de la Fondation Ford, de la Fondation MacArthur, du Kapor Center, de la Fondation Open Society de George Soros et de la Fondation Rockefeller. La recherche doit être financée d'une manière ou d'une autre. Mais peut-être vaut-il également la peine de réfléchir à la source de ce financement.
Gebru est conscient de l'énigme et a parlé de "milliardaires de la Big Tech qui sont aussi dans la grande philanthropie maintenant". Vraisemblablement, les fondateurs de DAIR croient que l'utilisation de ces fonds vers des objectifs qu'ils trouvent louables peut être plus importante que les origines des fonds. Mais cette ligne de pensée doit-elle être réservée exclusivement au DAIR ?
DAIR a publié une "Déclaration des auteurs répertoriés de Stochastic Parrots on the "AI pause" letter". Dans cette déclaration par ailleurs très réfléchie, ses auteurs écrivent qu'ils sont "consternés de voir le nombre de professionnels de l'informatique qui ont signé cette lettre, et la couverture médiatique positive qu'elle a reçue".
Bien que je connaisse et ai travaillé avec certains des professionnels qui ont signé la lettre de FLI, je ne peux parler pour personne d'autre que moi-même. Mais je pense qu'il serait juste de leur accorder le bénéfice du doute.
Certains, comme Gary Marcus, ont déclaré que même s'ils n'approuvaient pas entièrement "La Lettre", ils avaient signé afin d'atteindre un objectif spécifique qu'ils trouvaient très important. Semble familier?
Les gens ont remis en question les motivations des signataires , affirmant que certains pourraient simplement vouloir bloquer ceux qui dirigent actuellement l'IA afin de rattraper leur retard. Par exemple, Elon Musk est en train de créer une nouvelle société d'intelligence artificielle appelée x.ai. Et OpenAI dit maintenant que des modèles d'IA de plus en plus grands ne sont peut-être pas la voie à suivre .
Mais tous ceux qui ont signé ne sont pas motivés par leur propre intérêt. Et les dommages résultant du déploiement des systèmes d'IA aujourd'hui sont réels.
Exploitation des travailleurs et vols massifs de données ; reproduction de systèmes d'oppression et danger pour notre écosystème informationnel ; la concentration du pouvoir . Les méfaits cités par DAIR sont tous bien réels.
Les pouvoirs en place les promeuvent activement ou les permettent sans réfléchir via l'IA. Construire des coalitions pour soulever des problèmes, sensibiliser et saper la marche de Big Tech est la chose pragmatique à faire.
Si cela ressemble à de la politique, c'est parce que c'en est, comme les gens l'ont noté . Cela signifie qu'il s'agit « d'opinions, de peurs, de valeurs, d'attitudes, de croyances, de perspectives, de ressources, d'incitations et de bizarreries directes » – plus d'argent et de pouvoir.
C'est ce dont il a toujours été question. Gebru n'est pas étranger à ce jeu, ayant tenté de changer les choses de l'intérieur de Google avant de se lancer dans le jeu de l'influence de l'extérieur.
L'appel du FLI pour un moratoire sur l'IA n'était pas le premier, mais c'est celui qui a eu du succès. Être pragmatique appelait à signer, même de manière critique. C'est ce que Marcus a fait, bien qu'il ait proposé un moratoire devant le FLI . Celui-ci n'a pas attiré de signataires de type Elon Musk ni la «couverture médiatique positive» que DAIR a vue pour la lettre de FLI.
C'est vrai qu'il y en a eu. Certains points de vente sont toujours désireux de jouer la carte du sensationnalisme, d'autres s'inspirent ouvertement de TESCREAL . Mais cela ne signifie pas que toutes les couvertures étaient positives. Dans tous les cas, l'influence médiatique fait partie du jeu.
Mais qu'en est-il de la recherche ? Les dirigeants de DAIR et d'IA comme Marcus, Andrew Ng et Yann LeCun mentionnent la recherche. Ng et LeCun pensent que la recherche fait partie de la solution pour apporter "de nouvelles idées qui vont rendre les systèmes [d'IA] beaucoup plus contrôlables".
Cela résume une croyance largement répandue, qui semble se résumer à des problèmes essentiellement de nature technique. Si vous avez cette conviction, alors il est logique de croire également que ce qui est nécessaire pour surmonter les problèmes, c'est plus de recherche pour trouver des solutions.
Cependant, comme le montre l'incident des « perroquets stochastiques », il n'a jamais été question d'un manque de solutions. Il s'agit davantage d'agendas, de politique, d'argent et de pouvoir.
Marcus note que ce qui lui fait le plus peur à propos de l'IA, ce sont les gens. Il plaide pour la construction de ponts et ne se concentre pas sur un seul problème. Dans cet esprit, il est important de ne pas se concentrer uniquement sur la construction d'une meilleure IA grâce à la recherche. Veiller à ce que les gens y aient accès est crucial.
En fin de compte, avoir accès à un meilleur navigateur qu'Internet Explorer était plus important que le navigateur lui-même. Si cela était vrai pour les guerres des navigateurs des années 90, cela peut aussi nous dire quelque chose sur l'IA aujourd'hui. C'est l'essentiel de l'argument de Matt Stoller .
Stoller, un anti-monopoliste engagé, considère l'appel de Google et de Microsoft à l'IA comme les deux faces d'une même médaille. Stoller pense que l'affirmation de Google selon laquelle l'IA constitue une menace pour sa domination dans la recherche est un effort pour induire en erreur l'enquête antitrust contre Google.
Stoller affirme que « c'est à nous, en tant que société démocratique, de dire à nos législateurs que nous ne voulons pas que ces connaissances scientifiques fantastiques soient contrôlées par quelques-uns ». Il a raison d'appeler à la vigilance face aux Big Tech.
Certains chercheurs et entrepreneurs en IA travaillent à la création d'ensembles de données et de modèles accessibles à tous. C'est très bien, mais nous devons garder à l'esprit la métaphore du navigateur. Les ensembles de données et les modèles permettent aux développeurs de construire des choses. Mais si ces choses n'obtiennent pas d'espace sur les étagères parce que Big Tech les exclut, elles ne feront pas grand-chose.
Être un expert en IA aide. Mais savoir de quoi vous parlez ne signifie pas nécessairement que vous serez entendu, comme le montre le cas de Melanie Mitchell et son échange avec le sénateur Chris Murphy.
Mitchell a fait un excellent travail pour démystifier le battage médiatique sur l'IA . Construire des alliances avec des personnes qui pourraient être capables de faire quelque chose au sujet de l'IA ... pas tellement. Parfois, intervenir est la bonne chose à faire, et pour y arriver, des alliances sont nécessaires.
Expert en IA ou non, il y a quelques choses très importantes que chacun de nous peut faire.
Tout d'abord, comprenez la nature du pouvoir monopolistique qu'exercent les ChatGPT du monde. Plus nous utilisons ces systèmes Big Tech, plus nous contribuons à les améliorer et plus nous alimentons la puissance de Big Tech. Ne tombons pas dans le panneau cette fois . Utilisons des alternatives, qui sont de plus en plus nombreuses.
Deuxièmement, entrez dans la politique de l'IA. Envoyez une lettre à un sénateur, recueillez des signatures, marchez dans les rues ou tenez un espace Twitter pour discuter d'une agence internationale pour l'IA - tout ce qui fonctionne. Mais faites quelque chose, ou du moins, soyez conscient de ce que font les autres. Poursuivre les affaires comme d'habitude à la vitesse vertigineuse de l'IA est une recette pour un désastre.
Nous sommes déjà dans une situation où l'échelle du pouvoir est largement truquée en faveur de la Big Tech. Ne rien faire, c'est rester neutre face à une situation d'injustice, c'est-à-dire choisir le camp de l'oppresseur. Nous sommes déjà dans une situation où l'échelle du pouvoir est largement truquée en faveur de la Big Tech.
Une version de cette pièce apparaît ici .