El concepto de vehículos autónomos (AV) ha suscitado durante mucho tiempo un debate sobre la ética de la transferencia de autonomía en la toma de decisiones en las carreteras. La Sociedad de Ingenieros Automotrices establece 6 niveles de autonomía utilizados oficialmente en toda la industria para diferenciar la capacidad AV.
Los niveles 0-2 AV ya existen en los mercados comerciales. El nivel 3 es el primer salto significativo en capacidad. Describe vehículos que pueden conducirse solos durante períodos cortos, pero requieren que un conductor humano esté listo para intervenir si el sistema lo solicita. Los niveles 4 y 5 van más allá de la detección ambiental. Estos abarcan tecnologías de vanguardia que eliminan por completo la intervención humana. Los vehículos autónomos de nivel 4 pueden completar un viaje completo sin intervención humana en condiciones específicas. El nivel 5 puede completar viajes completos bajo cualquier circunstancia. El nivel 5 estaría asociado a vehículos que ni siquiera necesitan volante ni pedales, por ejemplo.
Los dilemas morales y éticos que surgen en torno a estos dos niveles superiores de autonomía surgen de la pérdida de casi todo el poder directo de toma de decisiones. El funcionamiento correcto de las tecnologías centrales, la capacidad de valorar la vida y los principios humanos, las compensaciones y la rendición de cuentas se convierten en cuestiones tanto en el marco de los marcos éticos como legales.
Los exploraremos, comenzando con el infame problema del tranvía.
El problema del tranvía es un experimento mental creado dentro de la rama de la filosofía llamada ética de la virtud y analiza cómo se comparan las consecuencias previsibles con las consecuencias previstas a nivel moral. La variación principal, ideada por la filósofa británica Philippa Foot (1967), es la siguiente:
Un tranvía circula por unas vías, fuera de control y sin posibilidad de frenar. En estas vías hay cinco personas atadas y el tranvía se acerca rápidamente a ellas. Estás parado fuera de las vías junto a una palanca que, si se tira, desviaría la trayectoria del tranvía a un conjunto diferente de vías. Esta vía alternativa tiene solo una persona atada, por lo que el tranvía actualmente matará a 5 personas, pero esto podría reducirse a solo una si actúas. ¿Tiras de la palanca?
El problema del tranvía puede verse desde muchos marcos éticos.
Cualquiera que sea la ideología, nuestro deber de minimizar el daño a los demás está directamente en conflicto con nuestro deber de elegir la acción moralmente correcta. Es la capacidad de valorar decisiones y compensaciones como estas lo que muchos cuestionan en los vehículos autónomos. Por ejemplo, si un vehículo autónomo estuviera a punto de chocar, ¿se debería dar prioridad a los pasajeros del vehículo sobre los peatones u otros vehículos?
Sin embargo, no es sólo la capacidad de tomar decisiones difíciles lo que debe considerarse en la ética de los vehículos autónomos. Cuando los propios humanos no podemos ponernos de acuerdo sobre qué marco ético respondería mejor al problema del tranvía, ¿cómo se supone que programemos coches autónomos para sopesar compensaciones como estas bajo una ideología?
¿Qué valores y principios básicos deberíamos programar en la IA?
¿Deberíamos querer que priorice deberes positivos: el número de vidas salvadas, o deberes negativos: minimizar el daño activo causado?
En 2018, Uber probó AV de nivel 3 en Arizona, lo que resultó en una trágica muerte de peatones, la primera causada por AV en la historia. Al ser Nivel 3, había un conductor de respaldo presente en el vehículo, pero no fue suficiente. Mientras el sistema de detección ambiental luchaba por identificar correctamente el obstáculo (en este caso, un peatón con una bicicleta), los sistemas de alerta del automóvil no reconocieron la posibilidad de daño con la suficiente rapidez. Cuando finalmente se alertó al conductor de respaldo para que tomara el control, el vehículo ya estaba a 0,2 segundos del impacto y viajaba a 60 km/h.
Este ejemplo no necesariamente analiza la compensación entre el daño directo a los pasajeros del AV y a los peatones externos al vehículo, ya que el conductor de respaldo nunca estuvo en riesgo de sufrir daño. Sin embargo, sí saca a la luz si podemos y debemos confiar en la detección sensorial de IA en lugar de la nuestra y si la anulación manual es una copia de seguridad factible en escenarios de tan alta presión y tan poco tiempo.
También destaca la cuestión de transferir autonomía, aunque sea temporalmente, a un AV, a través de la falta de un agente moral culpable del asesinato. En este caso, Uber retiró más de 90 vehículos autónomos de nivel 3 que había estado probando en Arizona y llegó a un acuerdo con la familia de la víctima. El conductor de respaldo, por su parte, fue acusado de homicidio por negligencia. ¿Se le atribuyó correctamente la culpa a ella o debería haber sido el vehículo? ¿Es esto último posible?
La UNESCO destaca que los marcos éticos de la IA deben priorizar evitar daños y respetar los derechos humanos. La seguridad y la no discriminación deberían sustentar los principios del aprendizaje automático. La supervisión, el control y la rendición de cuentas humanos también deben considerarse esenciales junto con la IA responsable.
Conceptos adicionales de justicia y "por el bien común" sugieren que queremos que la IA utilice una ideología utilitaria para la toma de decisiones. Por otro lado, "respetar los derechos humanos" influye en la rectitud moral de las acciones mismas, es decir, en la deontología.
Por supuesto, la transparencia también será fundamental para comprender cómo los AV terminan calculando las decisiones. Para evaluar el daño causado o evitado en el caso de un accidente audiovisual, necesitaremos comprender cómo y por qué la tecnología de IA subyacente llega a una conclusión determinada. La confianza del público en los vehículos autónomos requerirá comprender la responsabilidad y asegurarse de que se respeten los marcos correctos.
El Servicio de Investigación del Parlamento Europeo reconoce las preocupaciones éticas, legales y económicas que deben abordarse al desarrollar e implementar IA para la toma de decisiones automatizada. Esto incluye la investigación sobre cómo desarrollar principios éticos en los algoritmos subyacentes y cómo acelerar las políticas y regulaciones globales con la tasa exponencial de innovación en IA.
En términos de derechos humanos, también se está dando prioridad a la acción humana, y los organismos de investigación quieren proteger el "derecho de los usuarios finales a no estar sujetos a una decisión basada únicamente en el procesamiento automatizado". Por el lado de la tecnología, los estándares de ciberseguridad serán cada vez más importantes para garantizar sistemas seguros y confiables. La IA ética requiere un software confiable.
Si bien actualmente no tenemos un público general que utilice vehículos autónomos de nivel 3+ en las carreteras del Reino Unido, ni ningún vehículo de este tipo disponible en los mercados nacionales todavía, los principales actores de la industria como BMW, Tesla y Mercedes pretenden lanzarlos para 2025 utilizando tecnologías. como Traffic Jam Pilot para hacerlo.
Si los AV logran que la ética en la toma de decisiones sea correcta, se verán grandes beneficios. Algunas estimaciones predicen una reducción del 90% de los accidentes relacionados con el tráfico con ellos en las carreteras. Aún así, está claro que todavía no contamos con marcos éticos y legales cuantificables que describan cómo se deben tomar decisiones y priorizar las compensaciones cuando se trata de las tecnologías que sustentan los vehículos autónomos.
Por lo tanto, los actores audiovisuales necesitarán definir mejor qué significa "minimizar el daño" y qué ideología ética debería dictar la toma de decisiones. Como vimos con el accidente de Uber en 2018, también habrá que aclarar la responsabilidad y la agencia. Todo esto, cómo se manejan y en qué dirección avanzamos, tendrán implicaciones éticas a largo plazo para la sociedad.