paint-brush
Somos moralmente obrigados a adotar a IA?por@corhymel
1,051 leituras
1,051 leituras

Somos moralmente obrigados a adotar a IA?

por Cory Hymel8m2024/04/20
Read on Terminal Reader

Muito longo; Para ler

Frank Chen, o segundo a partir da esquerda, no painel de IA em que a questão foi colocada. Créditos: Gigster
featured image - Somos moralmente obrigados a adotar a IA?
Cory Hymel HackerNoon profile picture
0-item

Há cinco anos, Frank Chen fez uma pergunta que me acompanha todos os dias desde então. A questão era esta: “Se os carros autónomos são 51% mais seguros, não somos moralmente obrigados a adotá-los?”. Eu fiz essa pergunta inúmeras vezes nos últimos cinco anos e, geralmente, uma reação instintiva leva a um debate interessante. O que torna esta questão tão importante é o fio da navalha – não é 99% mais seguro, não é 70% mais seguro, é apenas 51% mais seguro.


Para contextualizar. A Administração Nacional de Segurança Rodoviária informou que em 2022, houve uma estimativa de 42.795 mortes no trânsito. 50% de 42.795 são 21.398 pessoas e 51% são 21.825 pessoas.


Isso significa que se os carros autônomos fossem 51% mais seguros, usá-los salvaria a vida de 427 pessoas todos os anos. São cerca de 1,5 aviões Boeing 777 cheios de passageiros.


Salvar 427 vidas é um argumento moral para adoção?


Nos cinco anos em que compartilho esta questão, as respostas nunca são simples. Eles estão sempre cheios de “e se”. Mas mesmo que as respostas faltem clareza, acho que a questão é extremamente importante. Em parte porque abre um debate mais amplo – e igualmente importante – sobre o imperativo moral da adoção da IA em muitos aspectos das nossas vidas e trabalho. Porque, afinal, evitar tecnologias que poderiam salvar vidas pode ser tão eticamente problemático como adotar tecnologia demasiado precipitadamente,


O imperativo moral da adoção da IA


Sempre considerei o debate em torno dos veículos autónomos um microcosmo perfeito para o discurso mais amplo sobre IA. Se possuímos uma tecnologia estatisticamente mais segura do que os veículos operados por humanos, a escolha moral não é óbvia?


Considere isto: estudos mostraram que os motoristas humanos tiveram uma taxa maior de acidentes com um risco significativo de lesões do que os carros autônomos (motorizados por IA). Especificamente, os motoristas humanos causaram 0,24 ferimentos por milhão de milhas (IPMM) e 0,01 mortes por milhão de milhas (FPMM), enquanto os carros autônomos causaram 0,06 IPMM e 0 FPMM.


E lembre-se, esses números não são apenas estatísticas. Eles representam vidas reais que poderiam ser salvas com a adoção da tecnologia de IA.


Mas por que parar nos veículos autônomos? O potencial da IA para melhorar a segurança, a eficiência e a precisão abrange campos como medicina, saúde pública, segurança alimentar, agricultura, segurança cibernética, prevenção do crime e ciência militar. Se a IA consegue diagnosticar doenças com maior precisão do que os médicos humanos, prever quebras de colheitas antes que devastem os abastecimentos alimentares ou impedir ataques cibernéticos antes que violem os nossos dados, não temos a obrigação moral de também utilizar essas tecnologias?


É claro que estes são exemplos dramáticos, mas o argumento vai além dos cenários de vida ou morte. A capacidade da IA de melhorar a nossa qualidade de vida diária é igualmente convincente. Seja simplificando tarefas mundanas ou tornando a informação e os serviços mais acessíveis e equitativos, a IA pode acabar com o trabalho penoso e melhorar a nossa qualidade de vida diária. O imperativo moral de adotar a IA não envolve apenas prevenir danos ou morte; trata-se de saber se temos a obrigação de contribuir para o bem-estar humano, se pudermos.

O dilema da escolha e segurança


Então, escolhemos veículos operados por humanos (ou processos liderados por humanos) sabendo que são menos seguros ou eficientes do que os seus homólogos de IA? Simplesmente porque são mais humanos?


Confrontado com a escolha entre sistemas operados por humanos e alternativas melhoradas pela IA, penso que a decisão deveria obviamente depender da segurança e da eficiência, em vez de uma fidelidade a alguma ideia obscura do que é “humano” ou não.


Abraçar a IA não significa desconsiderar o valor ou a contribuição humana; em vez disso, trata-se de reconhecer que o que é humano não é inerentemente superior – e honestamente, é muitas vezes significativamente inferior em contextos específicos.


Agora, por favor, não peguem os forcados, não vou me juntar ao Team Robot Overlord. Sinto a ansiedade que muitas pessoas sentem em relação à perturbação que a IA já está a causar aos seus empregos e à mudança social que, sem dúvida, está a caminho. Apenas me pergunto se a eficiência da IA e os benefícios da qualidade de vida poderão, a longo prazo, compensar o impacto dessas perturbações.


Parte da nossa relutância em adotar a IA é informada por preconceitos e medos cognitivos. Para uma espécie famosa pela sua adaptabilidade, nós, humanos, não gostamos de mudanças.


Os preconceitos cognitivos desempenham um papel substancial na nossa hesitação em adotar a IA. Os preconceitos cognitivos são padrões psicológicos que permanecem desde nossos primeiros anos como Homo Sapiens. São os hábitos nos quais nossas mentes adotam – atalhos cognitivos que podem ser úteis ao fugir de predadores, mas que definitivamente distorcem nossa percepção e julgamento modernos.


Neste caso, reconhecer e abordar estes preconceitos é crucial para avançar em direção a uma abordagem mais racional e ética à adoção da IA. Aqui estão alguns que penso que podem estar em jogo, influenciando a nossa suspeita, confiança ou aceitação das tecnologias de IA.

  • Viés de antropomorfismo: As pessoas tendem a atribuir características humanas à IA ou aos robôs, influenciando sua confiança e expectativas. Isto pode levar a suposições irrealistas sobre as capacidades dos sistemas de IA ou à atribuição de más intenções.

  • Heurística de Disponibilidade: Esse viés leva os indivíduos a superestimar a probabilidade de eventos associados a incidentes memoráveis ou vívidos. Reportagens sensacionalistas da mídia sobre falhas ou sucessos da IA podem ser desproporcionais e influenciar desproporcionalmente as percepções da confiabilidade e segurança da IA.

  • Viés de confirmação: o que todo mundo está fazendo? As pessoas podem procurar ou interpretar informações de uma forma que confirme as suas crenças ou hipóteses pré-existentes sobre a IA. Este preconceito pode dificultar a avaliação objetiva das tecnologias de IA e dos seus potenciais benefícios ou riscos.

  • FOMO: As pessoas não querem perder tecnologias benéficas, mas podem não compreender as implicações. Este preconceito pode ofuscar a avaliação crítica e levar à adoção prematura. Esse preconceito está relacionado ao Efeito Bandwagon (por exemplo, a tendência de fazer ou acreditar em coisas porque todo mundo faz - ou os influenciadores fazem. As pessoas podem confiar ou desconfiar das tecnologias de IA simplesmente porque esse parece ser o sentimento popular.


  • Viés do status quo: as pessoas preferem manter o estado atual, o que leva à resistência contra a adoção de algo novo como a IA, independentemente dos benefícios potenciais ou da superioridade comprovada. Este preconceito pode retardar a inovação e a adopção de tecnologias potencialmente melhoradoras da vida.


  • Aversão à perda: Esse preconceito faz com que a dor de perder algo pareça mais potente do que o prazer de ganhar algo de igual valor. Para a IA, isto significa que o medo da perda do emprego ou da perda de controlo ofusca os benefícios da segurança/eficiência/conveniência.

  • Viés de excesso de confiança: superestimação da capacidade de controlar ou compreender algo. Para a IA, isto significa sobrestimar ou subestimar os riscos associados à IA.


  • Aversão/Confiança do Algoritmo: Os números são assustadores! As pessoas tendem a ser tendenciosas contra os algoritmos, acreditando que a tomada de decisão humana é superior, mesmo quando as evidências sugerem o contrário. Por outro lado, alguns podem também ter uma confiança inquestionável nas decisões de IA, ignorando o potencial de erros ou preconceitos nos sistemas de IA.


Racionalidade Económica


Interessante, certo? Mas a verdade é que tudo isso é acadêmico. Talvez nem consigamos tomar essa decisão no final. As empresas já estão conseguindo.

Muitas empresas estão avançando com a integração da IA – principalmente porque o ROI muitas vezes fala mais alto do que os debates éticos. Pegar Amazon como um excelente exemplo, com sua mudança significativa em direção à automação. A eficiência e os benefícios económicos são tangíveis e mensuráveis e, face ao dinheiro vivo, as críticas morais e sociais subitamente parecem mais académicas.


Ainda assim, não se trata apenas de um capitalismo implacável; trata-se de sobrevivência e adaptação. As empresas enfrentam diariamente o desafio de equilibrar a adoção tecnológica com responsabilidades éticas e ESG. O impacto da IA no emprego e no bem-estar humano não pode ser deixado de lado. Para milhares de pessoas, a estabilidade financeira e o bem-estar profissional dependem dessas decisões. É algo com que muitas empresas estão lutando.


E é aqui que a questão do imperativo moral se torna mais matizada. Se a IA pode agilizar as operações, reduzir custos e até criar novas oportunidades, então não seremos nós também moralmente responsáveis pela exploração destas tecnologias?


O truque será manter essa bússola ética à mão e garantir que, à medida que abraçamos as eficiências da IA, também nos salvaguardamos contra o seu potencial de perturbar injustamente os meios de subsistência.

Estamos em um período de transição

De qualquer forma, precisamos estar atentos ao nosso equilíbrio. Estamos à beira de uma nova era e um empurrão sólido poderia levar-nos a uma queda livre. A IA não é mais uma fantasia futurista; está absolutamente incorporado em nossa vida diária e em nosso trabalho. Isso é emocionante – e assustador como o inferno.


Um dos desafios mais significativos que enfrentamos é a acessibilidade ou a lacuna tecnológica. A IA tem potencial para democratizar a tecnologia, disponibilizando ferramentas poderosas para um público mais amplo. No entanto, neste momento, a promessa da IA é vista principalmente por aqueles que já têm um certo nível de acesso, pelo que existe também a possibilidade de a IA exacerbar as desigualdades existentes, em vez de as aliviar.


É um período de ajustamento, pelo que exigirá paciência, educação e medidas proativas para garantir que os benefícios da IA sejam amplamente distribuídos. Temos o potencial de nivelar o campo de jogo para que o potencial da IA possa ser desbloqueado para todos, não apenas para alguns privilegiados.



O enigma da cooperação


Ok, então é um paradoxo: para que a IA funcione de forma ideal ao lado dos humanos, ela deve ser superior a nós em determinadas tarefas. Mas essa MESMO superioridade ameaça deslocar os papéis humanos, alimentando a resistência e o medo entre nós, mortais.


Este paradoxo cria um difícil “push-pull” para a IA; é por isso que estamos vendo um debate tão acalorado sobre moralidade. Acredito que a solução pode ser um conjunto de filosofias e tecnologias de design emergentes destinadas a colmatar a lacuna entre a IA e a cooperação humana de uma forma ética. Vou listá-los abaixo. Vale a pena perguntar ao ChatGPT sobre:


  • Human-Centric AI Design (HCAI): garante que os sistemas de IA sejam desenvolvidos com as necessidades e valores humanos em sua essência.

  • AI explicável (XAI): desmistifica as decisões de IA, tornando-as compreensíveis e transparentes para os humanos.

  • Quadros éticos de IA: orientam o desenvolvimento e a implantação de sistemas de IA de uma forma que respeite os direitos e valores humanos.

  • IA adaptativa/responsiva: aprende e se adapta ao feedback humano, garantindo um relacionamento sinérgico.

  • Design Participativo: envolve os usuários finais no processo de desenvolvimento de IA, garantindo que suas necessidades e preocupações sejam atendidas.

  • Inteligência Aumentada: enfatiza o papel da IA no aprimoramento das habilidades humanas, em vez de substituí-las.

  • IA confiável: cria confiança nos sistemas de IA por meio de confiabilidade, segurança e garantias éticas.

Dirigir carros sozinhos ou não dirigir carros sozinhos?


Para encerrar, vou me posicionar. Acho que adotar a IA é um imperativo moral. Na minha opinião, o potencial para salvar vidas, melhorar a nossa qualidade de vida e até mesmo resolver desigualdades de longa data é demasiado significativo para ser ignorado. Contudo, isso não significa que devemos mergulhar de cabeça sem consideração. Na minha opinião, precisamos de abordar a IA com uma mistura de entusiasmo e cautela – permanecendo entusiasmados para explorar as suas possibilidades, mas conscientes do impacto ético, social e económico.


Consideração cuidadosa, estruturas éticas robustas e governança rigorosa são as chaves para desbloquear o potencial da IA de forma responsável.


Ainda estou aberto ao debate sobre o assunto. Então, vou lançar a pergunta para você. Responda aqui ou no meu Tópico do LinkedIn e me diga por que estou errado – ou certo. Convido seus pensamentos e comentários sobre esta questão complexa.


Estamos prontos para abraçar a IA com a seriedade moral que ela exige?

Você está pronto para fazer sua próxima viagem em um carro autônomo?