“La Carta” fue solo el comienzo. Bienvenido al programa de política de IA. Coge palomitas de maíz o, mejor aún, sube al cuadrilátero.
“Recibí una carta del Instituto del Futuro de la Vida
del gobiernoel otro díaLo abrí y lo leí, decía que eran tontos
Me querían para su ejército o lo que sea.
Imagínate que me importa un carajo, dije nunca
Aquí hay una tierra a la que nunca le importó
Sobre un hermano como yo y yo porque nunca lo hicieron
Yo no estaba con eso, pero justo en ese mismo minuto se me ocurrió
Los chupones tenían poder
de autoridad”
Black Steel In The Hour Of Chaos letra y traducción de la canción. Public Enemy
La conexión entre Public Enemy y el estado actual de la IA puede no ser inmediatamente obvia. Pero si cambias "gobierno" por "Future of Life Institute" y "autoridad" por "poder", esas letras pueden ser una metáfora bastante buena de lo que está sucediendo en la IA hoy.
“La Carta”, como se la conoce en Twitter, es una Carta Abierta compilada por el Future of Life Institute (FLI) y firmada por un número cada vez mayor de personas. Pide una pausa en el entrenamiento de modelos de IA más grandes que GPT-4 para "desarrollar e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA".
La carta de FLI menciona que "la investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales". Una declaración con la que pocos estarían en desacuerdo, incluidas las personas que expresaron preocupaciones justificadas sobre "La Carta".
Yo también firmé “La Carta”. Cuando lo hice, tenía menos de 1.000 firmantes. Hoy tiene alrededor de 50.000 según las preguntas frecuentes de la FLI . No firmé porque estoy totalmente de acuerdo con FLI o su marco, ni mucho menos. También tengo reservas sobre la declaración anterior, y soy extremadamente consciente y crítico con la llamada exageración de la IA.
Firmé “La Carta” esperando que pudiera llamar la atención y generar una conversación muy necesaria, y así fue. La única otra vez que recuerdo una reacción violenta de la IA que alimentó un debate tan acalorado fue en 2020. Ese fue el momento en que Google despidió a varios investigadores que expresaron su preocupación sobre la práctica de construir modelos de lenguaje grande de IA cada vez más grandes en un documento conocido como " Loros estocásticos”.
Por supuesto, 2,5 años es toda una vida en IA. Eso fue antes de ChatGPT, antes de que la IA irrumpiera en la corriente principal . Pero eso tampoco significa necesariamente que los temas sean ampliamente bien entendidos hoy en día, incluso si se debaten acaloradamente.
Una primera línea de crítica contra “La Carta” cita sus orígenes y las agendas de las personas que la redactaron y firmaron, y con razón. De hecho, el Instituto Future of Life es una organización de altruismo efectivo y largo plazo .
En pocas palabras, eso significa personas que están más preocupadas por un hipotético futuro tecnológico utópico que por los problemas reales que el uso de la tecnología está causando hoy. Aunque las preguntas frecuentes de FLI también intentan abordar los daños actuales, de alguna manera Peter Thiel y Elon Musk escriben citando la "concentración del poder económico" como una preocupación que no suena muy convincente.
El filósofo e historiador Emile P. Torres, quien anteriormente fue un conocedor del lontermismo, ha acuñado el acrónimo TESCREAL para describir el lontermismo y su familia de ideologías. Afirmar que necesitamos ir a Marte para salvar a la humanidad de la destrucción de la Tierra o que necesitamos una IA súper avanzada para resolver nuestros problemas dice mucho sobre el pensamiento de TESCREAL.
Estas personas no tienen su mejor interés en el corazón, y ciertamente no me vi a mí mismo firmando una carta redactada por FLI y firmada conjuntamente por Elon Musk. Dicho esto, sin embargo, también es difícil no hacerlo. La cantidad de financiación, influencia y publicidad que obtienen los tipos de Elon Musk es difícil de ignorar, incluso para sus críticos.
Caso en cuestión: DAIR , el Instituto de Investigación de IA Distribuida, creado por el especialista en ética de la IA Timnit Gebru. Gebru fue una de las personas que fueron despedidas de Google en 2020. DAIR se fundó en 2021 para permitir el tipo de trabajo que Gebru quiere hacer .
DAIR está "arraigado en la creencia de que la IA no es inevitable, sus daños se pueden prevenir y cuando su producción y despliegue incluyen diversas perspectivas y procesos deliberados, puede ser beneficioso". Eso suena encomiable.
DAIR emplea a varios investigadores para trabajar en su misión y ha recaudado 3,7 millones de dólares de la Fundación Ford, la Fundación MacArthur, el Centro Kapor, la Fundación Sociedad Abierta de George Soros y la Fundación Rockefeller. La investigación tiene que ser financiada de alguna manera. Pero tal vez también valga la pena reflexionar sobre la fuente de esta financiación.
Gebru es consciente del enigma y ha hablado sobre "los multimillonarios de Big Tech que también están en la gran filantropía ahora". Presuntamente, los fundadores de DAIR creen que el uso de estos fondos hacia objetivos que consideran encomiables puede ser más importante que los orígenes de los fondos. Pero, ¿debería reservarse esta línea de pensamiento exclusivamente para DAIR?
DAIR publicó una "Declaración de los autores enumerados de Stochastic Parrots sobre la carta de" pausa de IA "". En esta declaración, por lo demás muy reflexiva, sus autores escriben que están "consternados al ver la cantidad de profesionales informáticos que han firmado esta carta y la cobertura mediática positiva que ha recibido".
Si bien conozco y he trabajado con algunos de los profesionales que firmaron la carta de FLI, no puedo hablar por nadie más que por mí mismo. Pero creo que sería justo darles el beneficio de la duda.
Algunos como Gary Marcus han declarado que si bien no respaldan completamente "La Carta", firmaron para lograr un objetivo específico que consideran muy importante. ¿Suena familiar?
La gente ha cuestionado los motivos de los firmantes , alegando que algunos simplemente desean detener a los que actualmente lideran AI para ponerse al día. Por ejemplo, Elon Musk está creando una nueva empresa de inteligencia artificial llamada x.ai. Y OpenAI ahora dice que tal vez los modelos de IA cada vez más grandes no sean el camino a seguir .
Pero no todos los que firmaron están motivados por el interés propio. Y los daños resultantes del despliegue de sistemas de IA en la actualidad son reales.
Explotación laboral y robo masivo de datos ; reproducción de sistemas de opresión y peligro para nuestro ecosistema de información ; la concentración del poder . Los daños que cita DAIR son todos muy reales.
Los poderes fácticos los promueven activamente o los habilitan sin pensar a través de la IA. Construir coaliciones para plantear problemas, generar conciencia y socavar la marcha de Big Tech es lo pragmático que se debe hacer.
Si eso suena a política es porque lo es, como ha dicho la gente . Eso significa que se trata de "opiniones, miedos, valores, actitudes, creencias, perspectivas, recursos, incentivos y rarezas", además de dinero y poder.
De eso se ha tratado siempre. Gebru no es ajeno a este juego, ya que intentó cambiar las cosas desde dentro de Google antes de lanzarse a jugar el juego de la influencia desde el exterior.
El llamado de FLI para una moratoria de IA no fue el primero, pero fue el que obtuvo tracción. Ser pragmático pedía firmar, incluso de forma crítica. Eso hizo Marcus, a pesar de haber propuesto una moratoria ante la FLI . Ese no atrajo a signatarios tipo Elon Musk o la "cobertura mediática positiva" que DAIR vio para la carta de FLI.
Es cierto que ha habido algo de eso. Algunos medios siempre están dispuestos a jugar la carta del sensacionalismo, otros se inspiran abiertamente en TESCREAL . Pero eso no quiere decir que toda la cobertura fuera positiva. En cualquier caso, la influencia mediática es parte del juego.
Pero, ¿y la investigación? Tanto los líderes de DAIR como de AI, como Marcus, Andrew Ng y Yann LeCun, mencionan la investigación. Ng y LeCun creen que la investigación es parte de la solución para traer "nuevas ideas que harán que los sistemas [IA] sean mucho más controlables".
Esto personifica una creencia muy extendida, que parece reducirse a problemas que son principalmente de naturaleza técnica. Si tiene esta creencia, entonces tiene sentido creer también que lo que se necesita para superar los problemas es más investigación para encontrar soluciones.
Sin embargo, como muestra el incidente de los "loros estocásticos", esto nunca se debió a la falta de soluciones. Se trata más de agendas, política, dinero y poder.
Marcus señala que lo que más le asusta de la IA son las personas. Aboga por la construcción de puentes y no centrarse en un solo tema. Con este espíritu, es importante no solo centrarse en construir una mejor IA a través de la investigación. Garantizar que las personas tengan acceso a ella es crucial.
En última instancia, tener acceso a un navegador mejor que Internet Explorer era más importante que el propio navegador. Si eso fue cierto para las guerras de navegadores de los 90, también puede decirnos algo sobre la IA actual. Esa es la esencia del argumento de Matt Stoller .
Stoller, un antimonopolista comprometido, ve el atractivo de Google y Microsoft para la IA como dos caras de la misma moneda. Stoller cree que la afirmación de Google de que la IA representa una amenaza para su dominio en las búsquedas es un esfuerzo por engañar a la investigación antimonopolio contra Google.
Stoller afirma que “nos corresponde a nosotros, como sociedad democrática, decirles a nuestros legisladores que no queremos que unos pocos controlen este fantástico conocimiento científico”. Tiene razón al llamar a la vigilancia contra Big Tech.
Algunos investigadores y empresarios de IA están trabajando en la creación de conjuntos de datos y modelos que están abiertos para que cualquiera los use. Eso es genial, pero debemos tener en cuenta la metáfora del navegador. Los conjuntos de datos y los modelos permiten a los desarrolladores construir cosas. Pero si esas cosas no obtienen espacio en los estantes porque Big Tech las excluye, no servirán de mucho.
Ser un experto en IA ayuda. Pero saber de lo que está hablando no significa necesariamente que será escuchado, como lo demuestra el caso de Melanie Mitchell y su intercambio con el senador Chris Murphy.
Mitchell hizo un gran trabajo desacreditando la exageración de la IA . Construir alianzas con personas que puedan hacer algo con respecto a la IA ... no tanto. A veces, intervenir es lo correcto, y para lograrlo, se necesitan alianzas.
Experto en IA o no, hay un par de cosas muy importantes que cada uno de nosotros puede hacer.
Primero, comprenda la naturaleza del poder monopólico que están ejerciendo los ChatGPT del mundo. Cuanto más usamos esos sistemas Big Tech, más contribuimos a mejorarlos y más alimentamos el poder de Big Tech. No nos dejemos engañar esta vez . Usemos alternativas, de las que cada vez hay más.
En segundo lugar, entrar en la política de IA. Envíe una carta a un senador, recopile firmas, marche por las calles o organice un Twitter Space para hablar sobre una agencia internacional para la IA , lo que sea que funcione. Pero haz algo, o al menos, sé consciente de lo que hacen los demás. Continuar con los negocios como de costumbre a la velocidad vertiginosa de AI es una receta para el desastre.
Ya estamos en una situación en la que la escala de poder está manipulada en gran medida a favor de Big Tech. No hacer nada significa mantenerse neutral en una situación de injusticia, que es elegir el lado del opresor. Ya estamos en una situación en la que la escala de poder está manipulada en gran medida a favor de Big Tech.
Una versión de esta pieza aparece aquí .