paint-brush
IA ética y vehículos autónomos: defender los principios morales en la era de los vehículos autónomospor@nimit
12,402 lecturas
12,402 lecturas

IA ética y vehículos autónomos: defender los principios morales en la era de los vehículos autónomos

por Nimit6m2024/03/21
Read on Terminal Reader

Demasiado Largo; Para Leer

El artículo examina los desafíos morales que enfrentan los vehículos autónomos (AV), particularmente en niveles más altos de autonomía, a través de la lente de marcos éticos como el Problema del Tranvía. Se analiza un estudio de caso de un incidente de Uber, destacando las cuestiones de la toma de decisiones de la IA, la confiabilidad sensorial y la responsabilidad legal. Concluye enfatizando la necesidad de directrices éticas y legales claras para los vehículos autónomos para garantizar la confianza social y el avance responsable de la tecnología autónoma.
featured image - IA ética y vehículos autónomos: defender los principios morales en la era de los vehículos autónomos
Nimit HackerNoon profile picture
0-item

El concepto de vehículos autónomos (AV) ha suscitado durante mucho tiempo un debate sobre la ética de la transferencia de autonomía en la toma de decisiones en las carreteras. La Sociedad de Ingenieros Automotrices establece 6 niveles de autonomía utilizados oficialmente en toda la industria para diferenciar la capacidad AV.


Los niveles 0-2 AV ya existen en los mercados comerciales. El nivel 3 es el primer salto significativo en capacidad. Describe vehículos que pueden conducirse solos durante períodos cortos, pero requieren que un conductor humano esté listo para intervenir si el sistema lo solicita. Los niveles 4 y 5 van más allá de la detección ambiental. Estos abarcan tecnologías de vanguardia que eliminan por completo la intervención humana. Los vehículos autónomos de nivel 4 pueden completar un viaje completo sin intervención humana en condiciones específicas. El nivel 5 puede completar viajes completos bajo cualquier circunstancia. El nivel 5 estaría asociado a vehículos que ni siquiera necesitan volante ni pedales, por ejemplo.


Los dilemas morales y éticos que surgen en torno a estos dos niveles superiores de autonomía surgen de la pérdida de casi todo el poder directo de toma de decisiones. El funcionamiento correcto de las tecnologías centrales, la capacidad de valorar la vida y los principios humanos, las compensaciones y la rendición de cuentas se convierten en cuestiones tanto en el marco de los marcos éticos como legales.


Los exploraremos, comenzando con el infame problema del tranvía.

El problema del tranvía

El problema del tranvía es un experimento mental creado dentro de la rama de la filosofía llamada ética de la virtud y analiza cómo se comparan las consecuencias previsibles con las consecuencias previstas a nivel moral. La variación principal, ideada por la filósofa británica Philippa Foot (1967), es la siguiente:


Un tranvía circula por unas vías, fuera de control y sin posibilidad de frenar. En estas vías hay cinco personas atadas y el tranvía se acerca rápidamente a ellas. Estás parado fuera de las vías junto a una palanca que, si se tira, desviaría la trayectoria del tranvía a un conjunto diferente de vías. Esta vía alternativa tiene solo una persona atada, por lo que el tranvía actualmente matará a 5 personas, pero esto podría reducirse a solo una si actúas. ¿Tiras de la palanca?

Marcos éticos en la toma de decisiones

El problema del tranvía puede verse desde muchos marcos éticos.


  • Los consecuencialistas argumentarían que es mejor reducir el daño general en el resultado por cualquier medio necesario.
  • Los deontólogos argumentarían que el acto de tirar de la palanca y matar activamente a una persona es más moralmente incorrecto que dejar que el carro siga su curso debido.
  • Los utilitaristas argumentarían que la elección más ética crea la mayor cantidad de bien para el mayor número de personas.
  • Los rawlsianos dirían que todas las vidas son iguales y que para lograr la justicia y actuar de manera más justa hay que evitar daños mayores.
  • La ética basada en los derechos argumentaría que el derecho a la vida es absoluto y no debe ser violado ni sacrificado a cambio de ningún compromiso.


Cualquiera que sea la ideología, nuestro deber de minimizar el daño a los demás está directamente en conflicto con nuestro deber de elegir la acción moralmente correcta. Es la capacidad de valorar decisiones y compensaciones como estas lo que muchos cuestionan en los vehículos autónomos. Por ejemplo, si un vehículo autónomo estuviera a punto de chocar, ¿se debería dar prioridad a los pasajeros del vehículo sobre los peatones u otros vehículos?


Sin embargo, no es sólo la capacidad de tomar decisiones difíciles lo que debe considerarse en la ética de los vehículos autónomos. Cuando los propios humanos no podemos ponernos de acuerdo sobre qué marco ético respondería mejor al problema del tranvía, ¿cómo se supone que programemos coches autónomos para sopesar compensaciones como estas bajo una ideología?


¿Qué valores y principios básicos deberíamos programar en la IA?


¿Deberíamos querer que priorice deberes positivos: el número de vidas salvadas, o deberes negativos: minimizar el daño activo causado?

Caso de estudio

En 2018, Uber probó AV de nivel 3 en Arizona, lo que resultó en una trágica muerte de peatones, la primera causada por AV en la historia. Al ser Nivel 3, había un conductor de respaldo presente en el vehículo, pero no fue suficiente. Mientras el sistema de detección ambiental luchaba por identificar correctamente el obstáculo (en este caso, un peatón con una bicicleta), los sistemas de alerta del automóvil no reconocieron la posibilidad de daño con la suficiente rapidez. Cuando finalmente se alertó al conductor de respaldo para que tomara el control, el vehículo ya estaba a 0,2 segundos del impacto y viajaba a 60 km/h.


Este ejemplo no necesariamente analiza la compensación entre el daño directo a los pasajeros del AV y a los peatones externos al vehículo, ya que el conductor de respaldo nunca estuvo en riesgo de sufrir daño. Sin embargo, sí saca a la luz si podemos y debemos confiar en la detección sensorial de IA en lugar de la nuestra y si la anulación manual es una copia de seguridad factible en escenarios de tan alta presión y tan poco tiempo.


También destaca la cuestión de transferir autonomía, aunque sea temporalmente, a un AV, a través de la falta de un agente moral culpable del asesinato. En este caso, Uber retiró más de 90 vehículos autónomos de nivel 3 que había estado probando en Arizona y llegó a un acuerdo con la familia de la víctima. El conductor de respaldo, por su parte, fue acusado de homicidio por negligencia. ¿Se le atribuyó correctamente la culpa a ella o debería haber sido el vehículo? ¿Es esto último posible?

IA ética

La UNESCO destaca que los marcos éticos de la IA deben priorizar evitar daños y respetar los derechos humanos. La seguridad y la no discriminación deberían sustentar los principios del aprendizaje automático. La supervisión, el control y la rendición de cuentas humanos también deben considerarse esenciales junto con la IA responsable.


Conceptos adicionales de justicia y "por el bien común" sugieren que queremos que la IA utilice una ideología utilitaria para la toma de decisiones. Por otro lado, "respetar los derechos humanos" influye en la rectitud moral de las acciones mismas, es decir, en la deontología.


Por supuesto, la transparencia también será fundamental para comprender cómo los AV terminan calculando las decisiones. Para evaluar el daño causado o evitado en el caso de un accidente audiovisual, necesitaremos comprender cómo y por qué la tecnología de IA subyacente llega a una conclusión determinada. La confianza del público en los vehículos autónomos requerirá comprender la responsabilidad y asegurarse de que se respeten los marcos correctos.

Toma de decisiones automatizada y ética

El Servicio de Investigación del Parlamento Europeo reconoce las preocupaciones éticas, legales y económicas que deben abordarse al desarrollar e implementar IA para la toma de decisiones automatizada. Esto incluye la investigación sobre cómo desarrollar principios éticos en los algoritmos subyacentes y cómo acelerar las políticas y regulaciones globales con la tasa exponencial de innovación en IA.


En términos de derechos humanos, también se está dando prioridad a la acción humana, y los organismos de investigación quieren proteger el "derecho de los usuarios finales a no estar sujetos a una decisión basada únicamente en el procesamiento automatizado". Por el lado de la tecnología, los estándares de ciberseguridad serán cada vez más importantes para garantizar sistemas seguros y confiables. La IA ética requiere un software confiable.

Conclusión

Si bien actualmente no tenemos un público general que utilice vehículos autónomos de nivel 3+ en las carreteras del Reino Unido, ni ningún vehículo de este tipo disponible en los mercados nacionales todavía, los principales actores de la industria como BMW, Tesla y Mercedes pretenden lanzarlos para 2025 utilizando tecnologías. como Traffic Jam Pilot para hacerlo.


Si los AV logran que la ética en la toma de decisiones sea correcta, se verán grandes beneficios. Algunas estimaciones predicen una reducción del 90% de los accidentes relacionados con el tráfico con ellos en las carreteras. Aún así, está claro que todavía no contamos con marcos éticos y legales cuantificables que describan cómo se deben tomar decisiones y priorizar las compensaciones cuando se trata de las tecnologías que sustentan los vehículos autónomos.


Por lo tanto, los actores audiovisuales necesitarán definir mejor qué significa "minimizar el daño" y qué ideología ética debería dictar la toma de decisiones. Como vimos con el accidente de Uber en 2018, también habrá que aclarar la responsabilidad y la agencia. Todo esto, cómo se manejan y en qué dirección avanzamos, tendrán implicaciones éticas a largo plazo para la sociedad.

Referencias