O conceito de veículos autônomos (VAs) há muito suscita debate sobre a ética da transferência de autonomia de tomada de decisão nas estradas. A Society of Automotive Engineers estabelece seis níveis de autonomia usados oficialmente em toda a indústria para diferenciar a capacidade AV.
Os níveis 0-2 AV já existem nos mercados comerciais. O nível 3 é o primeiro salto significativo em capacidade. Descreve veículos que podem dirigir sozinhos por curtos períodos, mas exigem que um motorista humano esteja pronto para intervir se o sistema assim o solicitar. Os níveis 4-5 vão além da detecção ambiental. Estas abrangem tecnologias de ponta que evitam completamente a substituição humana. AVs de nível 4 podem completar uma viagem inteira sem intervenção humana sob condições específicas. O nível 5 pode completar viagens inteiras em qualquer circunstância. O nível 5 estaria associado a veículos que nem precisam de volante ou pedais, por exemplo.
Os dilemas morais e éticos que surgem em torno destes dois níveis mais elevados de autonomia resultam da perda de quase todo o poder directo de tomada de decisão. O funcionamento correcto das tecnologias essenciais, a capacidade de valorizar a vida e os princípios humanos, as soluções de compromisso e a responsabilização tornam-se então questões tanto no âmbito dos quadros éticos como legais.
Iremos explorá-los, começando com o infame problema do bonde.
O Problema do Trolley é um experimento mental criado dentro do ramo da filosofia chamado ética da virtude e discute como as consequências previsíveis se comparam às consequências pretendidas no nível moral. A variação principal, idealizada pela filósofa britânica Philippa Foot (1967), é a seguinte:
Um bonde está correndo ao longo de um conjunto de trilhos, fora de controle e incapaz de quebrar. Porém, cinco pessoas estão amarradas nesses trilhos e o bonde está se aproximando rapidamente delas. Você fica fora dos trilhos próximo a uma alavanca que, se puxada, desviaria a trajetória do bonde para um conjunto diferente de trilhos. Esta pista alternativa tem apenas uma pessoa ligada a ela, então o bonde matará atualmente 5 pessoas, mas isso pode ser reduzido para apenas uma se você agir. Você puxa a alavanca?
O problema do bonde pode ser visto sob muitas estruturas éticas.
Qualquer que seja a ideologia, o nosso dever de minimizar os danos aos outros entra em conflito directo com o nosso dever de escolher a acção moralmente correcta. É a capacidade de valorizar decisões e compromissos como estes que muitos questionam nos veículos autónomos. Por exemplo, se um AV estivesse prestes a bater, os passageiros do veículo deveriam ter prioridade sobre os pedestres/outros veículos?
Porém, não é apenas a capacidade de tomar decisões difíceis que deve ser considerada na ética dos veículos autônomos. Quando os próprios humanos não conseguem chegar a acordo sobre qual o quadro ético que melhor responderia ao Problema do Trolley, como é que pretendemos programar carros autónomos para ponderar compromissos como estes sob uma única ideologia?
Que valores e princípios básicos deveríamos programar na IA?
Deveríamos querer dar prioridade aos deveres positivos: o número de vidas salvas, ou aos deveres negativos: minimizar os danos activos causados?
Em 2018, a Uber testou AV de nível 3 no Arizona, resultando numa trágica fatalidade de pedestres – a primeira causada por AV de todos os tempos. Sendo nível 3, havia um motorista reserva presente no veículo, mas não foi suficiente. Com o sistema de detecção ambiental lutando para identificar corretamente o obstáculo – aqui um pedestre com uma bicicleta, a possibilidade de dano não foi reconhecida pelos sistemas de alerta do carro com rapidez suficiente. Quando o motorista reserva foi finalmente alertado para assumir o controle, o veículo já estava a 0,2 segundos do impacto e viajando a 63 km/h.
Este exemplo não discute necessariamente a compensação entre danos diretos aos passageiros do AV e aos pedestres externos ao veículo, uma vez que o motorista reserva nunca correu risco de se machucar. No entanto, isso revela se podemos e devemos confiar na detecção sensorial de IA em vez da nossa própria e se a substituição manual é um backup viável em cenários de alta pressão e curto prazo.
Também destaca a questão da transferência de autonomia, mesmo que temporariamente, para uma AV, através da falta de um agente moral culpado pelo assassinato. Nesse caso, o Uber retirou mais de 90 outros AVs de nível 3 que estava testando no Arizona e fez um acordo com a família da vítima. O motorista reserva, por outro lado, foi acusado de homicídio culposo. A culpa foi corretamente atribuída a ela ou deveria ter sido o veículo – esta última opção é mesmo possível?
A UNESCO descreve que os quadros éticos da IA devem dar prioridade à prevenção de danos e ao respeito pelos direitos humanos. A segurança e a não discriminação devem sustentar os princípios da aprendizagem automática. A supervisão, o controlo e a responsabilização humanos também devem ser considerados essenciais juntamente com a IA responsável.
Conceitos adicionais de justiça e de “para um bem maior” sugerem que queremos que a IA utilize uma ideologia utilitarista para a tomada de decisões. Por outro lado, o “respeito pelos direitos humanos” contribui para a justeza moral das próprias ações, ou seja, a deontologia.
É claro que a transparência também será fundamental para compreender como as decisões acabam sendo calculadas pelos AVs. Para avaliar os danos causados ou evitados no caso de um acidente audiovisual, precisaremos de compreender como e porquê a tecnologia de IA subjacente chega a uma determinada conclusão. A confiança do público nos VA exigirá a compreensão da responsabilização e a garantia de que as estruturas corretas estão sendo cumpridas.
O Serviço de Estudos do Parlamento Europeu reconhece as preocupações éticas, jurídicas e económicas que devem ser abordadas no desenvolvimento e implantação de IA automatizada para a tomada de decisões. Isto inclui investigação sobre como desenvolver princípios éticos nos algoritmos subjacentes e como adaptar as políticas e regulamentações globais à taxa exponencial de inovação da IA.
Em termos de direitos humanos, a agência humana também está a ser priorizada, com os organismos de investigação a quererem proteger o “direito dos utilizadores finais de não serem sujeitos a uma decisão baseada exclusivamente no processamento automatizado”. Do lado da tecnologia, os padrões de segurança cibernética tornar-se-ão mais importantes para garantir sistemas seguros e fiáveis. A IA ética requer software confiável.
Embora atualmente não tenhamos o público em geral usando AVs de nível 3+ nas estradas do Reino Unido, ou quaisquer veículos desse tipo disponíveis nos mercados domésticos ainda, os principais players da indústria como BMW, Tesla e Mercedes pretendem lançá-los até 2025 usando tecnologias como o Traffic Jam Pilot para fazer isso.
Se os VAs acertarem a ética na tomada de decisões, haverá grandes benefícios a serem observados. Algumas estimativas prevêem uma redução de 90% nos acidentes de trânsito com eles nas estradas. Ainda assim, é claro que ainda não temos quadros éticos e jurídicos quantificáveis que definam como as decisões devem ser tomadas e como as soluções de compromisso devem ser priorizadas quando se trata das tecnologias que sustentam os VA.
Os intervenientes no sector audiovisual terão, portanto, de definir melhor o que significa “minimizar os danos” e qual a ideologia ética que deverá ditar a tomada de decisões. Tal como vimos no acidente da Uber em 2018, a responsabilização e o agenciamento também terão de ser esclarecidos. Tudo isto, a forma como são tratados e a direcção em que progredimos, terá implicações éticas a longo prazo para a sociedade.