paint-brush
Oh AGI, você pode me sentir?por@f1r3flyceo
1,587 leituras
1,587 leituras

Oh AGI, você pode me sentir?

por Lucius Meredith5m2023/03/29
Read on Terminal Reader

Muito longo; Para ler

É mais provável que a AGI seja uma complicação do que uma ajuda para lidar com problemas difíceis, como a mudança climática. Como a Vida, a inteligência tem um impulso para se replicar, mas replicar a inteligência sem entender o papel da incorporação é provavelmente uma explicação para o paradoxo de Fermi.
featured image - Oh AGI, você pode me sentir?
Lucius Meredith HackerNoon profile picture
0-item

Em uma conversa recente com alguns pesquisadores notáveis em inteligência artificial geral (AGI), estávamos discutindo se a AGI seria uma ajuda ou uma complicação no que diz respeito às mudanças climáticas. Entramos um pouco no mato sobre quanto tempo os relatórios do IPCC cruzam a linha de 1,5C. Para o registro, pode vir daqui a 18 anos - quando os pais dos recém-nascidos de hoje podem estar esperando enviar seus filhos para a faculdade.


A questão é que simplesmente existem muitos problemas relacionados ao clima para catalogar. Não é apenas o fato de que não podemos evitar ultrapassar 1,5°C. também é isso dizimamos as populações de insetos . Este é mais um canário em um bando deles que foram à falência na mina de carvão que cavamos para nós mesmos. Então, nós realmente precisamos de alguma ajuda. A posição dos meus colegas era que a AGI seria essa ajuda. Minha posição é que um agente geralmente inteligente será autônomo. Sua autonomia será um dos principais testes pelos quais o reconhecemos como geralmente inteligente. Afinal, esse é o teste que aplicamos a nós mesmos. Mas um agente autônomo precisará de motivação para nos ajudar.


Se as promessas de cortes de emissões são algum tipo de substituto , parece que não temos motivação para ajudar a nós mesmos. Quanto à AGI ter algo como compaixão ou empatia ou simplesmente valorizar a humanidade o suficiente para dar uma mãozinha, lembro que essas qualidades dos humanos comuns, quando existem, estão enraizadas nos sentimentos, não em nossa capacidade computacional ou em nossa inteligência. Existem muitos humanos extremamente inteligentes que historicamente não mostraram um pingo de compaixão ou empatia e cujo impacto na sociedade e na história humana é matéria de lendas e pesadelos. De Jack, o Estripador a Pol Pot, os exemplos são numerosos e aterrorizantes.


foto cortesia de Aaron Burden & Unsplash


Os sentimentos humanos estão profundamente enraizados na morfologia humana e na biologia humana

Mesmo textos sublimes como o Mathnawi de Rumi transformam a linguagem da luxúria humana em uma linguagem de amor humano. Muitos a consideram uma linguagem do Amor, mas na verdade é uma forma de apontar para o Amor especificamente para os humanos. É muito improvável que seja útil para Alpha Centaurans ou outras inteligências evoluídas no universo, exceto como uma ferramenta para entender os humanos e sua relação com o Amor. Não podemos esperar que a capacidade computacional bruta, enraizada em morfologia radicalmente diferente e praticamente sem biologia, tenha qualquer tipo de compreensão ou ressonância com a experiência humana.


A compaixão – etimologicamente: mesmo sentimento, ou sentimento com – é muitas vezes difícil para os humanos desenvolverem uns para com os outros, como mostra a nossa história, mesmo a mais recente e imediata.


Os republicanos do MAGA que invadiram o Capitólio dos Estados Unidos tiveram compaixão pelos oficiais que mutilaram ou mataram? O policial que matou George Floyd ou os policiais que observaram o que estava acontecendo tiveram compaixão pelo homem à sua frente? Por que uma inteligência enraizada em uma morfologia completamente diferente, sem nada como nossos imperativos biológicos, teria compaixão pela humanidade?


Os sentimentos humanos estão profundamente enraizados na morfologia humana e na biologia humana. Mesmo textos sublimes como o Mathnawi de Rumi transformam a linguagem da luxúria humana em uma linguagem de amor humano.


É por isso que uso a metáfora da introdução de uma nova espécie de aranha – aranhas inteligentes com capacidade de planejar e se adaptar – como um indicador dos prováveis resultados da AGI. E esse é um dos melhores resultados. Resultados muito piores começam com usos militares de AGI que deram errado, ou humanos sem compaixão ou totalmente malévolos, e imbuindo agentes inteligentes autônomos com motivações ou tendências violentas e malévolas.


Os humanos modernos são péssimos em entender o comportamento até mesmo dos sistemas de feedback mais simples – por um bom motivo. Eles são extremamente complexos, especialmente os muito comuns que desfrutam de transitividade topológica . (Para o leigo, isso significa sistemas em que pequenas diferenças na entrada podem resultar em diferenças arbitrariamente grandes na saída.) O poder preditivo bruto, na verdade até mesmo o poder computacional universal, não é páreo para esse recurso. Testemunhe as “alucinações” do ChatGPT . Tudo, desde os desastres da introdução de espécies em nichos ecológicos para os quais elas não são adequadas, aos efeitos colaterais em cascata das drogas até nossos impactos no clima, constituem evidências esmagadoras de nossa incapacidade de compreender sistemas complexos com nossa inteligência. Quando acertamos -- e não é um acidente -- vem de algum outro lugar que não a nossa inteligência.


Por exemplo, a evidência de que o que chamamos de consciência e experiência como comportamento consciente nos outros não está enraizada na inteligência, mas nos sentimentos, é bastante convincente. O notável pesquisador, Mark Solms, em , dá um resumo das evidências. Crianças anencefálicas – sem o neocórtex – ainda são descritas e vivenciadas como conscientes. Enquanto isso, uma pequena região de 2 centímetros cúbicos no cérebro sendo danificada é 100% correlacionada com ninguém em casa, o indivíduo não está consciente. Essa região do cérebro é tipicamente associada ao processamento afetivo.


a evidência de que o que chamamos de consciência e experiência como comportamento consciente nos outros não está enraizada na inteligência, mas nos sentimentos, é bastante convincente.


Não podemos esperar que a AGI tenha sentimentos por nós

Não podemos esperar atingir um AGI de nível humano reconhecível (HLAGI) sem que esses agentes evidenciem algo como sentimentos humanos, mas estes estão enraizados na morfologia e biologia humanas. Corporações radicalmente diferentes resultarão em inteligências radicalmente diferentes. Mas uma inteligência radicalmente diferente é um sistema dinâmico topologicamente transitivo, também conhecido como caótico. Assim como uma espécie inadequada para um nicho, ela terá impactos em nosso meio ambiente que historicamente somos péssimos em prever. Portanto, é terrivelmente ingênuo esperar que o HLAGI seja uma ajuda com a mudança climática. É muito mais provável que seja uma complicação para um problema já espinhoso.


foto cedida por Fernando Paredes & Unsplash


Se existe um ser humano que teve uma habilidade incrível de imaginar mundos alternativos com qualquer tipo de totalidade ou verossimilhança, foi Frank Herbert. Lembro que Dune foi ambientado em um período de tempo após o erro de AGI ter ocorrido . Essa é provavelmente uma visão otimista demais. É mais provável que o paradoxo de Fermi seja explicado pela tendência urobórica da inteligência de tentar se replicar e, assim, se extinguir. Em termos da hipótese Grabby Aliens de Robin Hanson , evitar esse impulso de replicar a inteligência sem entender o papel da incorporação é provavelmente uma das etapas difíceis que a inteligência deve superar para sobreviver.



Imagem principal cortesia de Milad Fakurian & Unsplash