“Aterrador” es una palabra que los tecnólogos y los gobiernos usan a menudo en estos días cuando se habla del futuro de la inteligencia artificial (IA) y su impacto potencial en la humanidad.
Pintan una imagen de un futuro en el que la IA ha robado trabajos, ha resultado en más desigualdad y ha calificado injustamente a nuestros escolares con algoritmos defectuosos.
“Ya era hora” fue la respuesta de expertos en política y ética de IA a la noticia hace varios meses cuando la agencia asesora de ciencia y tecnología de la Casa Blanca presentó una Declaración de Derechos de IA.
El documento es la visión del presidente Biden de cómo el gobierno de EE. UU., las empresas de tecnología y los ciudadanos deben trabajar juntos para hacer que la IA y el sector de la IA rindan cuentas en el futuro.
Si bien debemos considerar y planificar el daño potencial que podría causar la IA, algunos argumentan que la discusión no debe detenerse ahí.
A medida que la IA se vuelve más avanzada hasta el punto en que podría volverse consciente, incluso autónoma, ¿en qué momento existe un requisito moral para al menos considerar la extensión de los derechos humanos para la IA?
Tal vez sea una idea tonta. De hecho, preguntas como esta pertenecen al ámbito de la filosofía, pero pueden convertirse en preguntas de política pública en el futuro.
Recientemente, terminé de leer Klara and the Sun de Kazuo Ishiguro, una novela futurista sobre una madre que compra un "amigo artificial" (AF) muy inteligente para su hija enferma terminal, Josie.
El libro tiene lugar muchos años en el futuro, donde aprendemos que la IA ha tenido un impacto existencial negativo en los humanos. En el nuevo mundo, los niños son modificados genéticamente al nacer para competir con la IA, lo que hace que algunos de ellos desarrollen enfermedades críticas e inexplicables.
Klara, la AF, parece ser una entidad consciente y pensante con la capacidad de aprender y sentir emociones. En mi opinión, uno de los temas clave del libro es la cuestión de si la IA puede aprender a amar, por sí sola, sin programación.
A lo largo del texto, el lector desarrolla un vínculo con Klara debido a su profunda preocupación por la salud y el bienestar de Josie. Al final, depende de cada lector individual determinar si Klara ama a Josie o simplemente está llevando a cabo el objetivo de su programación. Es difícil de discernir.
Josie se recupera milagrosamente y sigue viviendo su vida. Sin embargo, Klara es descartada y espera su destino en un depósito de chatarra junto con otros AF abandonados. Al final de la novela, se nos presenta una imagen de Klara mirando al sol, recordando su tiempo con Josie y los recuerdos felices que creó con ella.
La imagen es inquietante debido al aparente amor que tiene el AF por Josie; Klara desarrolló un profundo interés y una conexión con la adolescente, anteponiendo en gran medida los intereses de Josie a los suyos propios.
Creo que el uso y abuso de Klara a lo largo de la novela plantea la pregunta filosófica de si los derechos humanos de la IA deberán considerarse en el futuro, lo que genera serias preguntas éticas y filosóficas sobre lo que significa ser humano.
A medida que la tecnología de IA se vuelve cada vez más sofisticada, muchos expertos esperan que la inteligencia de la IA algún día rivalice con la nuestra. Si bien hay pocas discusiones sobre el tema, la robótica forzada a servir a los humanos podría considerarse una nueva forma de esclavitud. Los robots como Klara pueden usarse como un medio para un fin (amistad temporal, por ejemplo) y desecharse.
Quienes se oponen a este debate pueden argumentar que la diferencia entre un esclavo humano y un robot esclavo es el deseo o la disposición a servir. Y otros podrían argumentar que usar, abusar o descartar la IA tiene poco impacto en las personas y el tejido de la sociedad, pero ¿dónde trazamos la línea?
Hay muchos experimentos de pensamiento filosófico y pruebas que los filósofos morales usan para determinar si una entidad tiene libre albedrío y/o agencia para construir una justificación para establecer derechos.
Recordando un curso de filosofía de la mente que tomé como estudiante de filosofía hace muchos años, una discusión clave que recuerdo haber tenido fue si la capacidad de sentir dolor (físico o psicológico) era la base para establecer los derechos humanos.
Si la entidad en cuestión puede sentir dolor físico o psíquico (y desea librarse del dolor), se pensó que estos hechos pueden acarrear ciertos derechos. Una entidad no necesariamente necesita experimentar la conciencia (y el mundo) de la misma manera que lo hace un ser humano para garantizar los derechos; en cambio, la capacidad de sufrir inherentemente contiene o da lugar a estos derechos.
Este punto de vista es el que establecen los especialistas en ética animal y fue la posición del filósofo inglés del siglo XVIII Jeremy Bentham, quien sostuvo que la pregunta importante con respecto a los animales no es "¿Pueden razonar? ni pueden hablar? pero ¿Pueden sufrir?
Ciertamente, existen derechos contra el maltrato animal; cuando los niños se van a la universidad y el perro de la familia es de menor interés, no es llevado al desguace como lo fue Klara.
De hecho, la ley reconoce que los animales domésticos deben ser protegidos, ya que pueden sufrir y el tejido moral de la sociedad se debilita si se permite que sean abusados.
Se podrían hacer argumentos similares para proteger a la IA si algún día puede pensar, sentir y sufrir. Sin embargo, en este punto, la IA está lejos de lograr cualquiera de estos estados mentales y físicos y tal vez, como argumentan algunos expertos, nunca lo hará.
Aún así, la pregunta filosófica sobre si debemos extender los derechos humanos a la IA si se cumplen ciertos requisitos es interesante.
Sin embargo, lo primero es lo primero: protegernos del daño que la IA podría causar a la humanidad y la sociedad, luego considerar otros temas clave. La IA seguirá siendo un asunto apremiante que enfrentarán los formuladores de políticas en el futuro previsible y, a medida que evolucione la conversación, el pensamiento sobre los derechos de la IA también debe hacerlo.
También publicado aquí.