“A Carta” foi apenas o começo. Bem-vindo ao programa de política de IA. Pegue um pouco de pipoca, ou melhor ainda, entre no ringue. “Recebi uma carta do outro dia Instituto Futuro da Vida do governo Eu abri e li, dizia que eles eram otários Eles me queriam para seu exército ou o que quer Imagine-me dando a mínima, eu disse nunca Aqui está uma terra que nunca deu a mínima Sobre um irmão como eu e eu mesmo porque eles nunca fizeram Eu não estava com ele, mas naquele exato minuto me ocorreu Os otários tinham ” poder de autoridade Letras de Black Steel In The Hour Of Chaos por Public Enemy A conexão entre o Public Enemy e o estado da IA hoje pode não ser imediatamente óbvia. Mas se você trocar “governo” por “Future of Life Institute” e “autoridade” por “poder”, essas letras podem ser uma boa metáfora para o que está acontecendo na IA hoje. “A Carta”, como ficou conhecida no Twitter, é uma (FLI) e assinada por um número cada vez maior de pessoas. Ele pede uma pausa no treinamento de modelos de IA maiores que o GPT-4, a fim de “desenvolver e implementar um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA”. Carta Aberta compilada pelo Instituto Futuro da Vida A carta da FLI menciona que “a pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”. Uma declaração com a qual poucos discordariam, incluindo pessoas que levantaram preocupações justificadas sobre “A Carta”. Eu assinei “A Carta” também. Quando o fiz, tinha menos de 1.000 signatários. Hoje, tem cerca de 50.000 . Não assinei porque concordo plenamente com a FLI ou seu enquadramento – longe disso. Também tenho reservas sobre a declaração acima e sou extremamente consciente e crítico do chamado hype da IA. segundo o FAQ do FLI Assinei “A Carta” esperando que pudesse chamar a atenção e iniciar uma conversa muito necessária, e foi o que aconteceu. A única outra vez em que me lembro da reação da IA ter alimentado um debate tão acalorado foi em 2020. Foi nessa época que em um artigo conhecido como “ Papagaios Estocásticos”. o Google demitiu vários pesquisadores que levantaram preocupações sobre a prática de construir modelos de linguagem de IA cada vez maiores Claro, 2,5 anos é uma vida inteira em IA. Isso foi . Mas isso não significa necessariamente que as questões sejam amplamente compreendidas hoje também, mesmo que sejam acaloradamente debatidas. antes do ChatGPT, antes da IA entrar no mainstream Instituto Futuro da Vida e TESCREAL Uma primeira linha de crítica contra “A Carta” cita suas origens e as agendas das pessoas que a redigiram e assinaram – e com razão. De fato, o Future of Life Institute é uma organização de altruísmo eficaz e . de longo prazo Em poucas palavras, isso significa pessoas que estão mais preocupadas com um hipotético futuro tecno-utópico do que com os problemas reais que o uso da tecnologia está causando hoje. Embora as perguntas frequentes da FLI também tentem abordar os danos atuais, de alguma forma os tipos de Peter Thiel e Elon Musk citando a “concentração do poder econômico” como uma preocupação não soam muito convincentes. O filósofo e historiador Emile P. Torres, que anteriormente era um membro do Lontermismo, cunhou o acrônimo para descrever o Lontermismo e sua família de ideologias. Afirmar que precisamos ir a Marte para salvar a humanidade da destruição da Terra ou que precisamos de IA superavançada para resolver nossos problemas fala muito sobre o pensamento TESCREAL. TESCREAL Essas pessoas não têm o melhor interesse no coração, e certamente não me vejo assinando uma carta redigida pela FLI e co-assinada por Elon Musk. Dito isto, no entanto, também é difícil não fazê-lo. A quantidade de financiamento, influência e publicidade que os tipos de Elon Musk obtêm é difícil de ignorar, mesmo para seus críticos. Financiamento e metas Caso em questão: , o Distributed AI Research Institute, criado pelo AI Ethicist Timnit Gebru. A Gebru foi uma das pessoas que foi demitida do Google em 2020. O DAIR foi fundado em 2021 . DAIR para viabilizar o tipo de trabalho que a Gebru deseja fazer O DAIR está “enraizado na crença de que a IA não é inevitável, seus danos podem ser evitados e, quando sua produção e implantação incluem diversas perspectivas e processos deliberados, ela pode ser benéfica”. Isso soa louvável. O DAIR emprega vários pesquisadores para trabalhar em sua missão e da Ford Foundation, MacArthur Foundation, Kapor Center, George Soros' Open Society Foundation e Rockefeller Foundation. A pesquisa tem que ser financiada de alguma forma. Mas talvez valha a pena ponderar sobre a fonte desse financiamento também. arrecadou US$ 3,7 milhões Gebru está ciente do enigma e falou sobre “bilionários da Big Tech que também estão na grande filantropia agora”. Presumivelmente, os fundadores do DAIR acreditam que o uso desses fundos para objetivos que consideram louváveis pode ser mais importante do que a origem dos fundos. Mas essa linha de pensamento deveria ser reservada exclusivamente ao DAIR? uma “Declaração dos autores listados de Stochastic Parrots sobre a carta de “Pausa AI””. Nesta declaração bastante cuidadosa, seus autores escrevem que estão “consternados ao ver o número de profissionais de computação que assinaram esta carta e a cobertura positiva da mídia que recebeu”. O DAIR publicou Motivos, danos e política Embora eu conheça e tenha trabalhado com alguns dos profissionais que assinaram a carta da FLI, não posso falar por ninguém além de mim. Mas acho que seria justo dar a eles o benefício da dúvida. Alguns, como afirmaram que, embora não endossem totalmente “A Carta”, eles assinaram para atingir um objetivo específico que consideram muito importante. Soa familiar? Gary Marcus, , alegando que alguns podem simplesmente querer paralisar os que atualmente lideram a IA para alcançá-los. Caso em questão, E . As pessoas questionaram os motivos dos signatários Elon Musk está montando uma nova empresa de IA chamada x.ai. a OpenAI agora diz que talvez modelos de IA cada vez maiores não sejam o caminho a seguir Mas nem todo mundo que assinou é motivado por interesse próprio. E os danos resultantes da implantação de sistemas de IA hoje são reais. e ; e ; a . Os danos que DAIR cita são todos muito reais. Exploração de trabalhadores roubo massivo de dados reprodução de sistemas de opressão perigo para nosso ecossistema de informação concentração de poder Os poderes constituídos estão promovendo ativamente ou habilitando-os sem pensar por meio da IA. para levantar questões, chamar a atenção e minar a marcha da Big Tech é a coisa pragmática a fazer. Construir coalizões Se isso soa como política é porque é, como . Isso significa que é sobre “opiniões, medos, valores, atitudes, crenças, perspectivas, recursos, incentivos e estranheza direta” – além de dinheiro e poder. as pessoas notaram Sempre foi assim. Gebru não é um estranho neste jogo, tendo tentado mudar as coisas de dentro do Google antes de começar a jogar o jogo da influência de fora. Influência da mídia e pesquisa O apelo da FLI por uma moratória da IA não foi o primeiro, mas foi o que ganhou força. Ser pragmático pedia assinatura, mesmo criticamente. Foi o que Marcus fez, apesar . Essa não atraiu signatários do tipo Elon Musk ou a “cobertura positiva da mídia” que o DAIR viu para a carta da FLI. de ter proposto uma moratória antes do FLI É verdade que tem havido um pouco disso. Alguns veículos estão sempre ansiosos para jogar a carta do sensacionalismo, outros são . Mas isso não significa que toda a cobertura foi positiva. De qualquer forma, a influência da mídia faz parte do jogo. abertamente inspirados pelo TESCREAL Mas e a pesquisa? Os líderes do DAIR e da IA, como Marcus, Andrew Ng e Yann LeCun, mencionam a pesquisa. para trazer “novas ideias que tornarão os sistemas [IA] muito mais controláveis”. Ng e LeCun acreditam que a pesquisa é parte da solução Isso simboliza uma crença amplamente difundida, que parece se resumir a problemas principalmente de natureza técnica. Se você tem essa crença, faz sentido também acreditar que o que é necessário para superar os problemas é mais pesquisa para encontrar soluções. Como mostra o incidente “Stochastic Parrots”, no entanto, isso nunca foi sobre falta de soluções. É mais sobre agendas, política, dinheiro e poder. Monopólios e fixação de IA Marcus observa que o que mais o assusta na IA são as pessoas. Ele defende a construção de pontes e não o foco em uma única questão. Com esse espírito, é importante não focar apenas na construção de uma IA melhor por meio da pesquisa. Garantir que as pessoas tenham acesso a ele é crucial. Em última análise, ter acesso a um navegador melhor do que o Internet Explorer era mais importante do que o próprio navegador. Se isso foi verdade nas dos anos 90, também pode nos dizer algo sobre a IA hoje. Essa é a essência . guerras dos navegadores do argumento que Matt Stoller está fazendo Stoller, um antimonopolista comprometido, vê o apelo do Google e da Microsoft à IA como dois lados da mesma moeda. Stoller acha que a afirmação do Google de que a IA representa uma ameaça ao seu domínio nas buscas é um esforço para enganar a investigação antitruste contra o Google. Stoller afirma que “cabe a nós, como sociedade democrática, dizer aos nossos legisladores que não queremos este fantástico conhecimento científico controlado por poucos”. Ele está certo em pedir vigilância contra a Big Tech. Alguns pesquisadores e empreendedores de IA estão trabalhando na criação e abertos para qualquer pessoa usar. Isso é ótimo, mas precisamos ter em mente a metáfora do navegador. Conjuntos de dados e modelos permitem que os desenvolvedores criem coisas. Mas se essas coisas não tiverem espaço nas prateleiras porque a Big Tech as exclui, elas não farão muito bem. de conjuntos de dados modelos Ser um especialista em IA ajuda. Mas saber do que você está falando não significa necessariamente que você será ouvido, como mostra o caso de Melanie Mitchell e sua troca com o senador Chris Murphy. Mitchell fez um ótimo trabalho . Construir alianças com ... nem tanto. Às vezes, intervir é a coisa certa a fazer e, para chegar lá, são necessárias alianças. desmascarando o hype da IA pessoas que podem fazer algo sobre IA Uma proposta modesta Especialista em IA ou não, há algumas coisas muito importantes que cada um de nós pode fazer. Primeiro, entenda a natureza do poder monopolista que os ChatGPTs do mundo estão exercendo. Quanto mais usamos esses sistemas de Big Tech, mais contribuímos para torná-los melhores e mais alimentamos o poder da Big Tech. . Vamos usar alternativas, que são cada vez mais numerosas. Não vamos cair nessa dessa vez Em segundo lugar, entre na política de IA. Envie uma carta a um senador, colete assinaturas, caminhe pelas ruas ou – o que funcionar. Mas faça alguma coisa, ou pelo menos, esteja ciente do que os outros estão fazendo. Continuar com os negócios como de costume na velocidade vertiginosa da IA é uma receita para o desastre. crie um espaço no Twitter para discutir uma agência internacional de IA Já estamos em uma situação em que a escala de poder é amplamente manipulada em favor da Big Tech. Não fazer nada significa ficar neutro diante de uma situação de injustiça, que é escolher o lado do opressor. Já estamos em uma situação em que a escala de poder é amplamente manipulada em favor da Big Tech. Uma versão desta peça aparece . aqui