paint-brush
À medida que aprendemos a usar a IA, ela está aprendendo a nos usarpor@thesociable
780 leituras
780 leituras

À medida que aprendemos a usar a IA, ela está aprendendo a nos usar

por The Sociable5m2023/07/29
Read on Terminal Reader

Muito longo; Para ler

O historiador Yuval Noah Harari disse ao AI for Good Global Summit da ONU que “enquanto estamos aprendendo a usar IA, ela está aprendendo a nos usar”. regulamentos. O historiador comparou o desenvolvimento da IA a ter um vírus no laboratório, dizendo que não há problema em desenvolvê-lo, mas não em implantá-lo ao público.
featured image - À medida que aprendemos a usar a IA, ela está aprendendo a nos usar
The Sociable HackerNoon profile picture


O historiador Yuval Noah Harari disse ao AI for Good Global Summit da ONU que “enquanto estamos aprendendo a usar a IA, ela está aprendendo a nos usar” e que devemos desacelerar sua implantação, não o desenvolvimento.


Falando na quinta-feira na sessão da Cúpula Global AI for Good da União Internacional de Telecomunicações (UIT) das Nações Unidas sobre “ Guardrails necessários para uma IA segura e responsável ”, Harari opinou que a IA deve continuar a ser desenvolvida, mas que não deve ser implantada sem verificações e regulamentos de segurança.


“Enquanto aprendemos a usar IA, ela está aprendendo a nos usar”

Yuval Noah Harari, AI for Good Global Summit, 2023


“Enquanto estamos aprendendo a usar a IA , ela está aprendendo a nos usar”, disse Harari, acrescentando: “É muito difícil interromper o desenvolvimento [da IA] porque temos essa mentalidade de corrida armamentista . As pessoas estão cientes – algumas delas – dos perigos, mas não querem ficar para trás.


Mas a coisa realmente crucial, e esta é a boa notícia, a coisa crucial é desacelerar a implantação – não o desenvolvimento ”, acrescentou.


O historiador comparou o desenvolvimento da IA a ter um vírus no laboratório, dizendo que não há problema em desenvolvê-lo, mas não em implantá-lo ao público.


“É como se você tivesse um vírus muito perigoso em seu laboratório, mas não o liberasse para a esfera pública; isso é bom"

Yuval Noah Harari, AI for Good Global Summit, 2023


“Você pode ter uma ferramenta de IA extremamente sofisticada em seu laboratório, desde que não a implante na esfera pública. Isso é menos perigoso”, disse Harari.


“Sabe, é como se você tivesse um vírus muito perigoso em seu laboratório, mas não o liberasse para a esfera pública; isso é bom. Há uma margem de segurança aí.”


Assim como as empresas farmacêuticas e os fabricantes de automóveis precisam passar por verificações de segurança, Harari argumentou que o mesmo deveria se aplicar à IA.


“Agora é possível pela primeira vez na história criar bilhões de pessoas falsas […] Se você não conseguir saber quem é um humano real e quem é um humano falso, a confiança entrará em colapso e, com ela, pelo menos, a sociedade livre ”

Yuval Noah Harari, AI for Good Global Summit, 2023


Sobre o assunto de deepfakes e bots gerados por IA, Harari disse: “ Agora é possível, pela primeira vez na história, criar pessoas falsas - criar bilhões de pessoas falsas - com as quais você interage com alguém online e não conhece. é um ser humano real ou um bot.


“Em um ano, provavelmente, essa conversa que estamos tendo agora, será quase impossível ter certeza se você está falando com um deepfake ou com um humano real.


“Se isso for permitido, fará com a sociedade o que o dinheiro falso ameaça fazer com o sistema financeiro.”


“Devemos entender melhor seu impacto potencial [IA] na sociedade, na cultura, na psicologia e na economia do mundo antes de implantá-lo na esfera pública”

Yuval Noah Harari, AI for Good Global Summit, 2023


O historiador acrescentou que “se você não puder saber quem é um ser humano real e quem é um ser humano falso, a confiança entrará em colapso e, com ela, pelo menos, a sociedade livre. Talvez as ditaduras consigam administrar de alguma forma, mas não as democracias”.


Harari esclareceu que criar pessoas falsas era aceitável, desde que fossem rotuladas como tal e não passadas como reais - “Preciso saber se é um humano real ou não”, disse ele.


A União Internacional de Telecomunicações é a agência especializada das Nações Unidas para tecnologias de informação e comunicação – TICs.



“Não somos mais almas misteriosas; agora somos animais hackáveis”

Yuval Noah Harari, Fórum Econômico Mundial, 2020



Harari falou várias vezes nas reuniões anuais do Fórum Econômico Mundial (WEF) em Davos, onde declarou: “Nós, humanos, devemos nos acostumar com a ideia de que não somos mais almas misteriosas; agora somos animais hackeáveis.”


Falando no WEF em 2020 , Harari disse: “Para hackear seres humanos, você precisa de muito conhecimento biológico, muito poder de computação e, principalmente, muitos dados.


“Se você tiver dados suficientes sobre mim e poder de computação e conhecimento biológico suficientes, poderá hackear meu corpo, meu cérebro, minha vida. Você pode chegar a um ponto em que me conhece melhor do que eu mesmo.


Com esse poder de hackear seres humanos, disse Harari, “[ele] pode, é claro, ser usado para bons propósitos, como fornecer assistência médica muito melhor, mas se esse poder cair nas mãos de um Stalin do século 21, o resultado será o pior totalitário regime na história da humanidade, e já temos vários candidatos ao cargo de Stalin do século 21.”


“Não devemos regular a IA até que vejamos algum dano significativo que esteja realmente acontecendo – não cenários imaginários”

Michael Schwarz, Cúpula de Crescimento do FEM, 2023


Falando no WEF Growth Summit 2023 durante um painel sobre “ Growth Hotspots: Harnessing the Generative AI Revolution ”, Michael Schwarz, da Microsoft, argumentou que, quando se trata de IA, seria melhor não regulá-la até que algo ruim aconteça, para não suprimir os benefícios potencialmente maiores.


Estou bastante confiante de que sim, a IA será usada por pessoas mal-intencionadas; e sim, causará danos reais; e sim, temos que ser muito cuidadosos e vigilantes ”, disse Schwarz ao painel do WEF.


Quando questionado sobre a regulamentação da IA generativa, o economista-chefe da Microsoft explicou:

“Qual deve ser nossa filosofia sobre a regulamentação da IA? Claramente, temos que regulá-lo e acho que minha filosofia é muito simples.


Devemos regular a IA de forma a não jogarmos fora o bebê junto com a água do banho .

“Então, acho que a regulamentação não deve ser baseada em princípios abstratos.


“Como economista, gosto de eficiência, então, primeiro, não devemos regular a IA até que vejamos algum dano significativo que esteja realmente acontecendo – não cenários imaginários .”


Em 23 de janeiro de 2023, a Microsoft estendeu sua parceria com a OpenAI – os criadores do ChatGPT – investindo US$ 10 bilhões adicionais além do “US$ 1 bilhão que a Microsoft despejou na OpenAI em 2019 e outra rodada em 2021”, segundo a Bloomberg .



Este artigo foi publicado originalmente por Tim Hinchliffe no The Sociable.