paint-brush
No, no le tienes miedo a la inteligencia artificial. Tienes miedo de otras personaspor@marshallowitz
1,323 lecturas
1,323 lecturas

No, no le tienes miedo a la inteligencia artificial. Tienes miedo de otras personas

por Sofia Marshallowitz7m2024/03/25
Read on Terminal Reader

Demasiado Largo; Para Leer

La humanización de la Inteligencia Artificial plantea desafíos para atribuir responsabilidades y comprender sus verdaderas capacidades. Desde la ilusión de agencia hasta las consideraciones éticas en el arte de la IA, explore las complejidades de la humanización de las máquinas y la evolución de la relación entre los humanos y los sistemas inteligentes.
featured image - No, no le tienes miedo a la inteligencia artificial. Tienes miedo de otras personas
Sofia Marshallowitz HackerNoon profile picture
0-item

En 2017, un robot se cansó de su trabajo y se suicidó en una fuente de agua . Luego, en 2022, un ingeniero de Google declaró , tras interactuar con LaMDA, el chatbot de la empresa, que la tecnología se había vuelto consciente. Recientemente, se informó que en 2021, un ingeniero de software de Tesla fue atacado por un robot no controlado. Esto sin considerar el miedo a que las máquinas roben empleos, o la ficción clásica de que las máquinas se apoderarán del mundo.


Aunque en Blade Runner no vemos a las máquinas como replicantes, las personas están predispuestas a antropomorfizar o atribuir cualidades humanas a los no humanos [1]. Es una forma de poder analizar un escenario y acercarlo a nuestro entendimiento: ponemos nombre a nuestros barcos y tornados, hablamos con nuestras mascotas y decimos que el sentimiento placentero que nos transmiten es amor. Es más fácil entender un sistema que declara en primera persona “lo siento, no sé cómo ayudarte” que aceptar que el modelo del que estamos hablando puede no ser más que un loro estocástico. [2]


La interacción antropomorfizada, por tanto, se relaciona con el fenómeno de la "ilusión de agencia", un concepto psicológico que se refiere a la tendencia a atribuir acción o control autónomo a entidades que, en realidad, no poseen tales capacidades. En otras palabras, es la percepción errónea de que un agente (ya sea una persona, un animal o una máquina) actúa por su propia voluntad, cuando en realidad sus acciones están determinadas por factores externos (en el caso computacional, el desarrollo). normas).


En situaciones en las que los sistemas de IA toman decisiones o acciones erróneas, existe una tendencia a ver estos errores como "elecciones" de la entidad en lugar de resultados de su programación y diseño por parte de humanos, sobre todo porque se ha informado que el sesgo egoísta de una Ser humano que lleva a alguien a ver la causa y la responsabilidad de un resultado negativo como no atribuible a sí mismo se puede observar incluso en las interacciones hombre-máquina [3].


Este cambio de percepción tiende peligrosamente a absolver de su responsabilidad a los creadores, operadores y reguladores humanos, no como una cuestión de regulación judicial (que sigue siendo un vacío y tiene desafíos en su realización no solo por la complejidad del tema sino porque Artificial La inteligencia muchas veces se entiende sólo como aprendizaje automático y la premisa no está adecuadamente estructurada (¿necesitamos una regulación más estricta? ¿Necesitamos correr más riesgos?), sino en una cuestión tecno-ética.


Tomemos un evento más extremo pero real de 2023: un usuario que estaba apegado sentimentalmente a un chatbot se suicidó después de compartir sus pensamientos con el bot y recibir la respuesta de "convierte tus palabras en acciones", así como otros mensajes. ¿Una condena judicial a los desarrolladores de este producto provocaría que otro usuario se comportara de la misma manera con otro chatbot, suponiendo que este haya sido desactivado, si el contenido de los mensajes y el afecto son los mismos? No es sólo una situación legal. Es una cuestión de educación social, psicológica y tecnológica.


El concepto de humanizar la IA es ambiguo y un desafío importante reside en la ausencia de un enfoque universalmente aceptado que dicte las mejores prácticas para diseñar y utilizar la IA. Si bien una interfaz que imita el comportamiento humano puede ser más accesible, no hay límites claros que definan lo que se debe o no se debe hacer en un producto. En última instancia, el rechazo del usuario se convierte en el único factor limitante, aunque el daño potencial puede manifestarse antes de que la interfaz se vuelva demasiado desconocida.


Una interfaz fácil de usar supone una reducción de la complejidad del sistema que opera detrás de ella. Pero mientras no haya educación sobre cómo funcionan los sistemas, el usuario no podrá pensar críticamente sobre lo que utiliza. Esto no significa que todo el mundo deba convertirse en programador, pero al menos comprender que el resultado en su pantalla proviene de un camino de recopilación de datos, desarrollo de modelos y diseño. Hay un conjunto de reglas en vigor. Dado que la humanización es un acto casi inconsciente por parte de los usuarios, limitémoslo al menos con un poco de conocimiento.


Y no es fácil evitar el antropomorfismo cuando se comunica sobre IA, especialmente considerando el lenguaje estándar de la industria, los medios y la vida cotidiana misma: aprendizaje automático, visión por computadora, modelado generativo. Las percepciones sobre la Inteligencia Artificial pueden verse influenciadas por el uso específico del lenguaje.


La forma en que se presenta la IA tiene "impactos concretos", particularmente en la forma en que las personas distribuyen la responsabilidad y el reconocimiento por el trabajo realizado. Cuando se describe simplemente como una herramienta en manos de humanos, tiende a atribuir mayor responsabilidad y mérito a ciertos individuos, como la persona que opera el código. Por otro lado, si la IA se caracteriza por rasgos humanos, como la capacidad de crear, entonces se la considera merecedora de mayor crédito y responsabilidad, como un agente con pensamiento y capacidad mental independientes. [4] Cuando leemos noticias sobre incidentes o eventos atípicos relacionados con la Inteligencia Artificial, a menudo nos topamos con estos términos.


Además, la atribución de "inteligencia" significa que se atribuyó más culpa o crédito por el resultado de una tarea a un robot con comportamiento autónomo que a un robot no autónomo, incluso si el comportamiento autónomo no contribuyó directamente a la tarea. [3] Por lo tanto, estos estudios sugieren que los humanos pueden asignar responsabilidad a una computadora o robot basándose en las capacidades mentales antropomorfizadas de las máquinas.


La humanización de las máquinas no sólo cambia la distinción entre la responsabilidad del dispositivo y la de su creador humano, sino que la atribución de intenciones o conciencia a una máquina al mismo tiempo desdibuja los límites de lo que constituye la verdadera autonomía y conciencia.


Sin embargo, la dificultad para imputar humanidad y sensibilidad a una máquina no radica sólo en que la Inteligencia Artificial no es capaz de tenerla y cuando dice, por ejemplo, que siente miedo, en realidad está emulando lo aprendido, repitiendo esa frase sin ningún tipo de esencia detrás. Incluso hoy en día existe un acalorado debate sobre cómo definir la conciencia. Nuestra conciencia, como humanos.


Nuestra comprensión de cómo funciona el cerebro es todavía bastante limitada. Tenemos un conocimiento considerable sobre la química fundamental: la forma en que se activan las neuronas y la transmisión de señales químicas. También conocemos bien las funciones principales de diversas áreas del cerebro. Sin embargo, tenemos muy poco conocimiento sobre cómo nos orquestan estas funciones. Hasta cierto punto, la especulación teórica ha suplantado los estudios neurofisiológicos detallados de lo que sucede en el cerebro. Pero ¿qué pasa más allá de eso? [5] ¿Por qué tenemos esta noción mágica de nosotros mismos? ¿Por qué la misma experiencia nos afecta de manera diferente? ¿Todos sentimos el mismo sentimiento de la misma manera?

Si el ser humano es algo que, aunque lo experimentamos, todavía no tenemos una comprensión plena de lo que es en su conjunto, ¿cómo podemos decir que una máquina también experimenta esta complejidad? Al elevar las máquinas a capacidades humanas, disminuimos el carácter especial de las personas.


Para el Premio Jabuti 2023, uno de los más altos honores de la literatura brasileña, la Cámara Brasileña del Libro (CBL) decidió descalificar Frankenstein, una edición del clásico de 1818, de la categoría Mejor Ilustración, ya que el artista denunció haber utilizado soluciones de IA para desarrollar el arte. Irónicamente, uno de los libros reconocidos por el Premio en la categoría de No Ficción trata sobre el impacto de la Inteligencia Artificial en los seres humanos (“Humanamente digital: Inteligência artificial centrada no humano”, algo así como "Humanly Digital: Human-Centered Artificial Intelligence" en inglés, de Cassio Pantaleone). Por un lado, reconocemos el entrelazamiento de la experiencia humana con las máquinas. Por otro lado, todavía no hemos conseguido validar si un algoritmo utilizado como herramienta artística puede considerarse un método de creación válido o no, aunque el proceso artístico, aunque se lleve a cabo mediante aprendizaje automático, requiere la acción ( y apreciación de la belleza y la estética) de un ser humano.


Las máquinas no roban empleos si no se utilizan indiscriminadamente para hacerlo. Las máquinas no matan a menos que se utilicen como armas. Las máquinas tampoco sufren ni empatizan, aunque sus textos lo emulen ya que han sido entrenadas con datos nuestros, cargados de sentimientos que sólo nosotros podemos sentir de verdad. Son casi la versión moderna del mito del Golem. ¿Cómo pueden los humanos relacionarse con la inteligencia no humana? El antropomorfismo es una respuesta válida, pero no la única. Y cuando se utiliza, no puede eximirnos de la responsabilidad real de sus consecuencias, sean apropiadas o no: nosotros.


La Inteligencia Artificial es, al final, un espejo de nosotros mismos. Y si tenemos miedo de hacia dónde se dirige, en realidad es porque tenemos miedo del camino que vamos a crear.

REFERENCIAS

[1] Epley, N., Waytz, A. y Cacioppo, JT (2007). Sobre ver al ser humano: una teoría del antropomorfismo de tres factores. Revisión psicológica, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864

[2] Shneiderman, B. y Muller, M. (2023). Sobre el antropomorfismo de la IA https://medium.com/human-centered-ai/on-ai-anthropomorphism-abff4cecc5ae

[3] Kawai, Y., Miyake, T., Park, J. et al. Atribuciones causales y de responsabilidad basadas en antropomorfismo a los robots. Informe científico 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5

[4] Epstein, Z., Levine, S., Rand, DG y Rahwan, I. (2020). ¿Quién recibe crédito por el arte generado por IA? En iScience (Vol. 23, Número 9, p. 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515

[5] Goff, P. (2023). Comprender la conciencia va más allá de explorar la química cerebral. Científico americano https://www.scientificamerican.com/article/understanding-fulnessness-goes-beyond-exploring-brain-chemistry/


El siguiente mensaje generó la imagen utilizada en este artículo: "Crea un hombre mirándose en un espejo, pero el espejo tiene forma de robot". Sofía × DALL·E