Hace cinco años, Frank Chen planteó una pregunta que desde entonces se me ha quedado grabada todos los días. La pregunta era la siguiente: "Si los coches autónomos son un 51% más seguros, ¿no estamos moralmente obligados a adoptarlos?". He planteado esta pregunta muchas veces durante los últimos cinco años y, por lo general, una reacción instintiva conduce a un debate interesante. Lo que hace que esta pregunta sea tan grandiosa es el filo de la navaja: no es 99% más seguro, no es 70% más seguro, es sólo 51% más seguro.
Para ponerlo en contexto. La Administración Nacional de Seguridad en las Carreteras ha informado que en 2022 se estimaron 42.795 muertes en accidentes de tránsito. El 50% de 42.795 son 21.398 personas y el 51% son 21.825 personas.
Eso significa que si los vehículos autónomos son un 51% más seguros, su uso salvaría la vida de 427 personas cada año. Se trata de 1,5 aviones Boeing 777 llenos de pasajeros.
¿Salvar 427 vidas es un argumento moral a favor de la adopción?
En los cinco años que llevo compartiendo esta pregunta, las respuestas nunca son simples. Siempre están llenos de preguntas sobre "qué pasaría si". Pero incluso si las respuestas carecen de claridad, creo que la pregunta es increíblemente importante. En parte porque abre un debate más amplio (e igualmente importante) sobre el imperativo moral de la adopción de la IA en muchos aspectos de nuestras vidas y nuestro trabajo. Porque, después de todo, evitar tecnología que podría salvar vidas puede ser tan éticamente problemático como adoptar tecnología demasiado apresuradamente.
Siempre he encontrado que el debate sobre los vehículos autónomos es un microcosmos perfecto para el discurso más amplio sobre la IA. Si poseemos tecnología que es estadísticamente más segura que los vehículos operados por humanos, ¿no es obvia la elección moral?
Considera esto:
Y recuerde, estos números no son sólo estadísticas. Representan vidas reales que podrían salvarse adoptando la tecnología de inteligencia artificial.
Pero ¿por qué limitarse a los vehículos autónomos? El potencial de la IA para mejorar la seguridad, la eficiencia y la precisión se extiende a campos como la medicina, la salud pública, la seguridad alimentaria, la agricultura, la ciberseguridad, la prevención del delito y la ciencia militar. Si la IA puede diagnosticar enfermedades con mayor precisión que los médicos humanos, predecir las malas cosechas antes de que devasten los suministros de alimentos o frustrar los ciberataques antes de que violen nuestros datos, ¿no tenemos la obligación moral de utilizar también esas tecnologías?
Por supuesto, estos son ejemplos dramáticos, pero el argumento se extiende más allá de los escenarios de vida o muerte. La capacidad de la IA para mejorar nuestra calidad de vida diaria es igualmente convincente. Ya sea simplificando las tareas mundanas o haciendo que la información y los servicios sean más accesibles y equitativos, la IA puede acabar con la monotonía y mejorar nuestra calidad de vida diaria. El imperativo moral de adoptar la IA no se trata sólo de prevenir daños o la muerte; se trata de si tenemos la obligación de contribuir al bienestar humano si podemos.
Entonces, ¿elegimos vehículos operados por humanos (o procesos dirigidos por humanos) sabiendo que son menos seguros o eficientes que sus contrapartes de IA? ¿Simplemente porque son más humanos?
Ante la elección entre sistemas operados por humanos y alternativas mejoradas por IA, mi opinión es que la decisión obviamente debería depender de la seguridad y la eficiencia en lugar de una lealtad a alguna idea turbia de lo que es "humano" o no.
Adoptar la IA no significa ignorar el valor o el aporte humano; más bien, se trata de reconocer que lo que es humano no es inherentemente superior y, honestamente, a menudo es significativamente inferior en contextos específicos.
Ahora, por favor, no saquen las horcas, no me uniré al Equipo Robot Overlord. Entiendo la ansiedad que mucha gente siente por la disrupción que la IA ya está causando en sus trabajos y el cambio social que sin duda se avecina hacia nosotros. Sólo me pregunto si las eficiencias de la IA y los beneficios en la calidad de vida podrían, a largo plazo, compensar el impacto de esas disrupciones.
Parte de nuestra renuencia a adoptar la IA se debe a sesgos y miedos cognitivos. Para ser una especie famosa por su adaptabilidad, a los humanos no nos encanta el cambio.
Los sesgos cognitivos desempeñan un papel importante en nuestra vacilación a la hora de adoptar la IA. Los sesgos cognitivos son patrones psicológicos que son un vestigio de nuestros primeros años como Homo Sapiens. Son los hábitos en los que cae nuestra mente: atajos cognitivos que pueden ser útiles cuando huimos de los depredadores, pero que definitivamente distorsionan nuestra percepción y juicio modernos.
En este caso, reconocer y abordar estos sesgos es crucial para avanzar hacia un enfoque más racional y ético para la adopción de la IA. Aquí hay algunos que creo que podrían estar en juego, influyendo en nuestra sospecha, confianza o aceptación de las tecnologías de IA.
Interesante, ¿verdad? Pero la verdad es que todo esto es académico. Es posible que al final ni siquiera lleguemos a tomar esta decisión. Las empresas ya lo están logrando.
Muchas corporaciones están avanzando rápidamente con la integración de la IA, principalmente porque el retorno de la inversión a menudo habla más que los debates éticos. Llevar
Aun así, no se trata sólo de un capitalismo insensible; se trata de supervivencia y adaptación. Las empresas enfrentan cada día el desafío de equilibrar la adopción tecnológica con las responsabilidades éticas y ESG. El impacto de la IA en el empleo y el bienestar humano no puede quedar en segundo plano. Para miles de personas, la estabilidad financiera y el bienestar profesional dependen de estas decisiones. Es algo a lo que se enfrentan muchas empresas.
Y aquí es donde la cuestión del imperativo moral adquiere más matices. Si la IA puede optimizar las operaciones, reducir costos e incluso crear nuevas oportunidades, ¿no somos también moralmente responsables de explorar estas tecnologías?
El truco será mantener esa brújula ética a mano y garantizar que, al adoptar las eficiencias de la IA, también nos protejamos contra su potencial de alterar injustamente los medios de vida.
De cualquier manera, debemos cuidar nuestro equilibrio. Estamos al borde de una nueva era, y un impulso sólido podría llevarnos a una caída libre. La IA ya no es una fantasía futurista; está absolutamente integrado en nuestra vida diaria y en nuestro trabajo. Eso es emocionante y aterrador.
Uno de los desafíos más importantes que enfrentamos es la accesibilidad o brecha tecnológica. La IA tiene el potencial de democratizar la tecnología, poniendo a disposición de un público más amplio herramientas poderosas. Sin embargo, en este momento, la promesa de la IA la ven principalmente aquellos que ya tienen un cierto nivel de acceso, por lo que también existe la posibilidad de que la IA exacerbe las desigualdades existentes en lugar de aliviarlas.
Es un período de ajuste, por lo que requerirá paciencia, educación y medidas proactivas para garantizar que los beneficios de la IA se distribuyan ampliamente. Tenemos el potencial de nivelar el campo de juego para que el potencial de la IA pueda desbloquearse para todos, no sólo para unos pocos privilegiados.
Bien, entonces es una paradoja: para que la IA funcione de manera óptima junto con los humanos, debe ser superior a nosotros en ciertas tareas. Pero esa MISMA superioridad amenaza con desplazar los roles humanos, alimentando la resistencia y el miedo entre nosotros, los mortales.
Esta paradoja crea un duro tira y afloja para la IA; Por eso estamos viendo un debate tan acalorado sobre la moralidad. Creo que la solución puede ser un conjunto de filosofías y tecnologías de diseño emergentes destinadas a cerrar la brecha entre la IA y la cooperación humana de una manera ética. Los enumeraré a continuación. Vale la pena preguntarle a ChatGPT sobre:
Para concluir, adoptaré una postura. Creo que adoptar la IA es un imperativo moral. En mi opinión, el potencial de salvar vidas, mejorar nuestra calidad de vida e incluso abordar desigualdades de larga data es demasiado importante como para ignorarlo. Sin embargo, esto no significa que debamos lanzarnos de cabeza sin consideración alguna. En mi opinión, debemos abordar la IA con una mezcla de entusiasmo y cautela, manteniéndonos entusiasmados por explorar sus posibilidades pero conscientes del impacto ético, social y económico.
Una consideración cuidadosa, marcos éticos sólidos y una gobernanza estricta son las claves para desbloquear el potencial de la IA de manera responsable.
Todavía estoy abierto al debate sobre el tema. Entonces, te haré la pregunta. Responde aquí o en mi
¿Estamos preparados para adoptar la IA con la seriedad moral que exige?
¿Estás listo para emprender tu próximo viaje por carretera en un coche autónomo?