paint-brush
Política de IA: da pausa à regulamentação, trata-se de conquistar os corações e as mentes das pessoaspor@linked_do
484 leituras
484 leituras

Política de IA: da pausa à regulamentação, trata-se de conquistar os corações e as mentes das pessoas

por George Anadiotis8m2023/05/03
Read on Terminal Reader

Muito longo; Para ler

“A Carta” foi apenas o começo. Bem-vindo ao programa de política de IA. Pegue um pouco de pipoca, ou melhor ainda, entre no ringue.
featured image - Política de IA: da pausa à regulamentação, trata-se de conquistar os corações e as mentes das pessoas
George Anadiotis HackerNoon profile picture
0-item

“A Carta” foi apenas o começo. Bem-vindo ao programa de política de IA. Pegue um pouco de pipoca, ou melhor ainda, entre no ringue.


“Recebi uma carta do Instituto Futuro da Vida do governo outro dia

Eu abri e li, dizia que eles eram otários

Eles me queriam para seu exército ou o que quer

Imagine-me dando a mínima, eu disse nunca

Aqui está uma terra que nunca deu a mínima

Sobre um irmão como eu e eu mesmo porque eles nunca fizeram

Eu não estava com ele, mas naquele exato minuto me ocorreu

Os otários tinham poder de autoridade

Letras de Black Steel In The Hour Of Chaos por Public Enemy


A conexão entre o Public Enemy e o estado da IA hoje pode não ser imediatamente óbvia. Mas se você trocar “governo” por “Future of Life Institute” e “autoridade” por “poder”, essas letras podem ser uma boa metáfora para o que está acontecendo na IA hoje.


“A Carta”, como ficou conhecida no Twitter, é uma Carta Aberta compilada pelo Instituto Futuro da Vida (FLI) e assinada por um número cada vez maior de pessoas. Ele pede uma pausa no treinamento de modelos de IA maiores que o GPT-4, a fim de “desenvolver e implementar um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA”.


A carta da FLI menciona que “a pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”. Uma declaração com a qual poucos discordariam, incluindo pessoas que levantaram preocupações justificadas sobre “A Carta”.


Eu assinei “A Carta” também. Quando o fiz, tinha menos de 1.000 signatários. Hoje, tem cerca de 50.000 segundo o FAQ do FLI . Não assinei porque concordo plenamente com a FLI ou seu enquadramento – longe disso. Também tenho reservas sobre a declaração acima e sou extremamente consciente e crítico do chamado hype da IA.


Assinei “A Carta” esperando que pudesse chamar a atenção e iniciar uma conversa muito necessária, e foi o que aconteceu. A única outra vez em que me lembro da reação da IA ter alimentado um debate tão acalorado foi em 2020. Foi nessa época que o Google demitiu vários pesquisadores que levantaram preocupações sobre a prática de construir modelos de linguagem de IA cada vez maiores em um artigo conhecido como “ Papagaios Estocásticos”.


Claro, 2,5 anos é uma vida inteira em IA. Isso foi antes do ChatGPT, antes da IA entrar no mainstream . Mas isso não significa necessariamente que as questões sejam amplamente compreendidas hoje também, mesmo que sejam acaloradamente debatidas.

Instituto Futuro da Vida e TESCREAL

Uma primeira linha de crítica contra “A Carta” cita suas origens e as agendas das pessoas que a redigiram e assinaram – e com razão. De fato, o Future of Life Institute é uma organização de altruísmo eficaz e de longo prazo .


Em poucas palavras, isso significa pessoas que estão mais preocupadas com um hipotético futuro tecno-utópico do que com os problemas reais que o uso da tecnologia está causando hoje. Embora as perguntas frequentes da FLI também tentem abordar os danos atuais, de alguma forma os tipos de Peter Thiel e Elon Musk citando a “concentração do poder econômico” como uma preocupação não soam muito convincentes.


O filósofo e historiador Emile P. Torres, que anteriormente era um membro do Lontermismo, cunhou o acrônimo TESCREAL para descrever o Lontermismo e sua família de ideologias. Afirmar que precisamos ir a Marte para salvar a humanidade da destruição da Terra ou que precisamos de IA superavançada para resolver nossos problemas fala muito sobre o pensamento TESCREAL.


Essas pessoas não têm o melhor interesse no coração, e certamente não me vejo assinando uma carta redigida pela FLI e co-assinada por Elon Musk. Dito isto, no entanto, também é difícil não fazê-lo. A quantidade de financiamento, influência e publicidade que os tipos de Elon Musk obtêm é difícil de ignorar, mesmo para seus críticos.

Financiamento e metas

Caso em questão: DAIR , o Distributed AI Research Institute, criado pelo AI Ethicist Timnit Gebru. A Gebru foi uma das pessoas que foi demitida do Google em 2020. O DAIR foi fundado em 2021 para viabilizar o tipo de trabalho que a Gebru deseja fazer .


O DAIR está “enraizado na crença de que a IA não é inevitável, seus danos podem ser evitados e, quando sua produção e implantação incluem diversas perspectivas e processos deliberados, ela pode ser benéfica”. Isso soa louvável.


O DAIR emprega vários pesquisadores para trabalhar em sua missão e arrecadou US$ 3,7 milhões da Ford Foundation, MacArthur Foundation, Kapor Center, George Soros' Open Society Foundation e Rockefeller Foundation. A pesquisa tem que ser financiada de alguma forma. Mas talvez valha a pena ponderar sobre a fonte desse financiamento também.


Fazer concessões e jogar o jogo da influência faz parte da política de IA

Gebru está ciente do enigma e falou sobre “bilionários da Big Tech que também estão na grande filantropia agora”. Presumivelmente, os fundadores do DAIR acreditam que o uso desses fundos para objetivos que consideram louváveis pode ser mais importante do que a origem dos fundos. Mas essa linha de pensamento deveria ser reservada exclusivamente ao DAIR?


O DAIR publicou uma “Declaração dos autores listados de Stochastic Parrots sobre a carta de “Pausa AI””. Nesta declaração bastante cuidadosa, seus autores escrevem que estão “consternados ao ver o número de profissionais de computação que assinaram esta carta e a cobertura positiva da mídia que recebeu”.

Motivos, danos e política

Embora eu conheça e tenha trabalhado com alguns dos profissionais que assinaram a carta da FLI, não posso falar por ninguém além de mim. Mas acho que seria justo dar a eles o benefício da dúvida.


Alguns, como Gary Marcus, afirmaram que, embora não endossem totalmente “A Carta”, eles assinaram para atingir um objetivo específico que consideram muito importante. Soa familiar?


As pessoas questionaram os motivos dos signatários , alegando que alguns podem simplesmente querer paralisar os que atualmente lideram a IA para alcançá-los. Caso em questão, Elon Musk está montando uma nova empresa de IA chamada x.ai. E a OpenAI agora diz que talvez modelos de IA cada vez maiores não sejam o caminho a seguir .


Mas nem todo mundo que assinou é motivado por interesse próprio. E os danos resultantes da implantação de sistemas de IA hoje são reais.


Exploração de trabalhadores e roubo massivo de dados ; reprodução de sistemas de opressão e perigo para nosso ecossistema de informação ; a concentração de poder . Os danos que DAIR cita são todos muito reais.


Os poderes constituídos estão promovendo ativamente ou habilitando-os sem pensar por meio da IA. Construir coalizões para levantar questões, chamar a atenção e minar a marcha da Big Tech é a coisa pragmática a fazer.


Se isso soa como política é porque é, como as pessoas notaram . Isso significa que é sobre “opiniões, medos, valores, atitudes, crenças, perspectivas, recursos, incentivos e estranheza direta” – além de dinheiro e poder.


Sempre foi assim. Gebru não é um estranho neste jogo, tendo tentado mudar as coisas de dentro do Google antes de começar a jogar o jogo da influência de fora.

Influência da mídia e pesquisa

O apelo da FLI por uma moratória da IA não foi o primeiro, mas foi o que ganhou força. Ser pragmático pedia assinatura, mesmo criticamente. Foi o que Marcus fez, apesar de ter proposto uma moratória antes do FLI . Essa não atraiu signatários do tipo Elon Musk ou a “cobertura positiva da mídia” que o DAIR viu para a carta da FLI.


É verdade que tem havido um pouco disso. Alguns veículos estão sempre ansiosos para jogar a carta do sensacionalismo, outros são abertamente inspirados pelo TESCREAL . Mas isso não significa que toda a cobertura foi positiva. De qualquer forma, a influência da mídia faz parte do jogo.


Mas e a pesquisa? Os líderes do DAIR e da IA, como Marcus, Andrew Ng e Yann LeCun, mencionam a pesquisa. Ng e LeCun acreditam que a pesquisa é parte da solução para trazer “novas ideias que tornarão os sistemas [IA] muito mais controláveis”.


Isso simboliza uma crença amplamente difundida, que parece se resumir a problemas principalmente de natureza técnica. Se você tem essa crença, faz sentido também acreditar que o que é necessário para superar os problemas é mais pesquisa para encontrar soluções.


Como mostra o incidente “Stochastic Parrots”, no entanto, isso nunca foi sobre falta de soluções. É mais sobre agendas, política, dinheiro e poder.

Monopólios e fixação de IA

Marcus observa que o que mais o assusta na IA são as pessoas. Ele defende a construção de pontes e não o foco em uma única questão. Com esse espírito, é importante não focar apenas na construção de uma IA melhor por meio da pesquisa. Garantir que as pessoas tenham acesso a ele é crucial.


Em última análise, ter acesso a um navegador melhor do que o Internet Explorer era mais importante do que o próprio navegador. Se isso foi verdade nas guerras dos navegadores dos anos 90, também pode nos dizer algo sobre a IA hoje. Essa é a essência do argumento que Matt Stoller está fazendo .


Stoller, um antimonopolista comprometido, vê o apelo do Google e da Microsoft à IA como dois lados da mesma moeda. Stoller acha que a afirmação do Google de que a IA representa uma ameaça ao seu domínio nas buscas é um esforço para enganar a investigação antitruste contra o Google.

A escala de poder é manipulada em favor da Big Tech

Stoller afirma que “cabe a nós, como sociedade democrática, dizer aos nossos legisladores que não queremos este fantástico conhecimento científico controlado por poucos”. Ele está certo em pedir vigilância contra a Big Tech.


Alguns pesquisadores e empreendedores de IA estão trabalhando na criação de conjuntos de dados e modelos abertos para qualquer pessoa usar. Isso é ótimo, mas precisamos ter em mente a metáfora do navegador. Conjuntos de dados e modelos permitem que os desenvolvedores criem coisas. Mas se essas coisas não tiverem espaço nas prateleiras porque a Big Tech as exclui, elas não farão muito bem.


Ser um especialista em IA ajuda. Mas saber do que você está falando não significa necessariamente que você será ouvido, como mostra o caso de Melanie Mitchell e sua troca com o senador Chris Murphy.


Mitchell fez um ótimo trabalho desmascarando o hype da IA . Construir alianças com pessoas que podem fazer algo sobre IA ... nem tanto. Às vezes, intervir é a coisa certa a fazer e, para chegar lá, são necessárias alianças.

Uma proposta modesta

Especialista em IA ou não, há algumas coisas muito importantes que cada um de nós pode fazer.


Primeiro, entenda a natureza do poder monopolista que os ChatGPTs do mundo estão exercendo. Quanto mais usamos esses sistemas de Big Tech, mais contribuímos para torná-los melhores e mais alimentamos o poder da Big Tech. Não vamos cair nessa dessa vez . Vamos usar alternativas, que são cada vez mais numerosas.


Em segundo lugar, entre na política de IA. Envie uma carta a um senador, colete assinaturas, caminhe pelas ruas ou crie um espaço no Twitter para discutir uma agência internacional de IA – o que funcionar. Mas faça alguma coisa, ou pelo menos, esteja ciente do que os outros estão fazendo. Continuar com os negócios como de costume na velocidade vertiginosa da IA é uma receita para o desastre.


Já estamos em uma situação em que a escala de poder é amplamente manipulada em favor da Big Tech. Não fazer nada significa ficar neutro diante de uma situação de injustiça, que é escolher o lado do opressor. Já estamos em uma situação em que a escala de poder é amplamente manipulada em favor da Big Tech.


Uma versão desta peça aparece aqui .