O ritmo de desenvolvimento da Inteligência Artificial atingiu um crescendo natural. Ferramentas como GPT-4 , Gemini , Claude , etc., e todos os seus criadores afirmam que em breve serão capazes de mudar todas as facetas da sociedade, desde a saúde e a educação até às finanças e ao entretenimento. Esta rápida evolução levanta questões cada vez mais críticas sobre a trajetória da IA: sim, os benefícios da tecnologia, mas também ( principalmente! ) os riscos potenciais que representa para todos nós.
Nestas circunstâncias, ouvir, compreender e ter em conta as perspectivas dos especialistas torna-se crucial. Uma pesquisa recente intitulada “ Milhares de autores de IA sobre o futuro da IA ” representa o esforço mais extenso para avaliar as opiniões desses especialistas sobre o potencial da IA. Conduzido por Katja Grace e sua equipe da AI Impacts , em colaboração com pesquisadores da Universidade de Bonn e da Universidade de Oxford, o estudo entrevistou 2.778 pesquisadores, buscando suas previsões sobre o progresso da IA e seus impactos sociais. Todos os contatados já haviam escrito artigos revisados por pares em locais de IA de alto nível.
Em suma, o inquérito destaca a enorme complexidade e amplitude das expectativas e preocupações entre os investigadores de IA relativamente ao futuro da tecnologia… e aos seus impactos sociais.
Os especialistas prevêem que a IA alcançará marcos significativos já em 2028: “ como codificar um site inteiro de processamento de pagamentos do zero e escrever novas músicas indistinguíveis das reais de artistas de sucesso como Taylor Swift ”.
Uma maioria significativa dos participantes também acredita que os melhores sistemas de IA provavelmente alcançarão capacidades muito notáveis nas próximas duas décadas. Isso inclui encontrar “ maneiras inesperadas de atingir metas ” (82,3%), falar “ como um especialista humano na maioria dos tópicos ” (81,4%) e comportar-se frequentemente “ de maneiras surpreendentes para os humanos ” (69,1%).
Além disso, o consenso sugere uma probabilidade de 50% de a IA “ superar ” os humanos em todas as tarefas até 2047, uma projeção que avançou 13 anos em comparação com as previsões feitas um ano antes .
Prevê-se agora que a probabilidade de todas as ocupações humanas se tornarem “ totalmente automatizáveis ” atingirá 10% até 2037 e 50% até 2116 (em comparação com 2164 no inquérito de 2022 ).
A pesquisa indica ceticismo sobre a interpretabilidade das decisões de IA, com apenas 20% dos entrevistados considerando provável que os usuários serão capazes de “ entender as verdadeiras razões por trás das escolhas dos sistemas de IA ” até 2028. A IA é (infamemente) uma caixa preta , e esta preocupação reflete desafios reais e contínuos na transparência da IA. Isto é particularmente relevante em aplicações críticas (finanças, cuidados de saúde…) onde a compreensão da tomada de decisões da IA é crucial para a confiança e a responsabilização.
O estudo também destaca preocupações “ significativas ” em relação aos potenciais impactos negativos da IA. A disseminação de informações falsas, a manipulação da opinião pública e o uso autoritário da IA criam, sem surpresa, preocupações substanciais. Os apelos a medidas proactivas para mitigar estes perigos são hoje muito poucos, e isso é um problema .
Há uma gama diversificada de opiniões sobre os impactos a longo prazo da inteligência artificial de alto nível, com uma parte notável dos entrevistados atribuindo probabilidades diferentes de zero a resultados extremamente bons e extremamente ruins, incluindo a extinção humana. Isso é cientista para “ não sabemos o que vai acontecer a seguir ”. Mas… entre 38% e 51% dos entrevistados deram pelo menos 10% de chance de a IA avançada levar a resultados tão ruins quanto a extinção humana , o que parece ser algo que devemos ficar de olho.
Finalmente, há divergências sobre se um progresso mais rápido ou mais lento da IA seria melhor para o futuro da humanidade. No entanto, a maioria dos inquiridos defende que se dê mais prioridade à investigação sobre segurança da IA do que atualmente, refletindo um consenso crescente sobre a importância de abordar os riscos existenciais da IA e de garantir o seu desenvolvimento e implantação seguros.
O caminho a seguir é bastante claro: os governos, em todo o mundo, precisam de aumentar o financiamento para a investigação em segurança da IA e desenvolver mecanismos robustos para garantir que os sistemas de IA se alinham com os valores e interesses humanos atuais e futuros.
O governo do Reino Unido anunciou recentemente mais de 50 milhões de libras em financiamento para uma série de projetos relacionados com a inteligência artificial , incluindo 30 milhões de libras para a criação de um novo ecossistema de IA responsável. A ideia é construir ferramentas e programas que garantam aplicações responsáveis e confiáveis das capacidades de IA.
Entretanto, a administração Biden-Harris anunciou no início de 2024 a formação do Consórcio do Instituto de Segurança da IA dos EUA (AISIC), reunindo mais de 200 intervenientes na IA, incluindo líderes da indústria, mundo académico e sociedade civil. Este consórcio visa apoiar o desenvolvimento e a implantação de IA segura e confiável, desenvolvendo diretrizes para red teaming, avaliações de capacidade, gestão de riscos e outras medidas críticas de segurança.
Estes são um começo, mas são demasiado nacionais.
Os governos não podem hoje olhar apenas para o seu próprio quintal. Precisamos também de implementar regulamentos INTERNACIONAIS para orientar o desenvolvimento ético e a implantação de tecnologias de IA, garantindo transparência e responsabilização. Isto inclui a promoção de colaborações interdisciplinares e INTERNACIONAIS entre investigadores de IA, especialistas em ética e decisores políticos. Sentir-me-ei mais seguro no mundo quando vir o seguinte a ser implementado para fortalecer e melhorar os quadros existentes de Direitos Humanos:
Talvez seja um pouco cedo para ser vítima do doomerismo. Embora o inquérito forneça informações valiosas, tem limitações, incluindo potenciais preconceitos resultantes da auto-seleção entre os participantes e o desafio ( óbvio! ) de prever com precisão os avanços tecnológicos. Mais investigação deverá ter como objectivo expandir a diversidade de perspectivas e explorar as implicações do desenvolvimento da IA em sectores específicos.
No final, e independentemente da precisão das previsões feitas, precisamos de mais do que palavras. A IA é uma fonte de oportunidades sem precedentes e de desafios significativos. Através do diálogo aberto entre investigadores, decisores políticos e o público, devemos criar regras que nos protejam do perigo da IA e nos orientem para um futuro melhor para todos .
O mundo é muito grande e nós somos muito pequenos. Boa sorte aí.