paint-brush
Riesgos de la IA: por qué es momento de tener en cuenta las advertencias de Elon Musk y más de 50.000 expertos en tecnologíapor@gashihk
1,020 lecturas
1,020 lecturas

Riesgos de la IA: por qué es momento de tener en cuenta las advertencias de Elon Musk y más de 50.000 expertos en tecnología

por Hekuran Gashi8m2023/05/30
Read on Terminal Reader
Read this story w/o Javascript

Demasiado Largo; Para Leer

Los laboratorios de inteligencia artificial están creando una bestia que no podemos domar y que podría “manipular a la gente para que haga lo que quiera” Elon Musk, “el padrino de la IA” y más de 50.000 expertos en tecnología advierten que la inteligencia artificial podría tener profundos riesgos para la humanidad.

People Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Riesgos de la IA: por qué es momento de tener en cuenta las advertencias de Elon Musk y más de 50.000 expertos en tecnología
Hekuran Gashi HackerNoon profile picture
0-item
1-item
2-item

Los laboratorios de inteligencia artificial están creando una bestia que no podemos domar y que podría “manipular a la gente para que haga lo que quiera”. Elon Musk, “el padrino de la IA”, y más de 50.000 expertos en tecnología advierten que la inteligencia artificial podría suponer profundos riesgos para la humanidad.


Muchas personalidades destacadas han hablado recientemente sobre la IA y han plasmado sus opiniones en un papel. Algunas instan a ver la IA desde una perspectiva positiva, mientras que otras advierten que puede entrañar "profundos riesgos para la humanidad".


Algunos expertos argumentan que AI y ChatGPT pueden actuar como un 'Trabajador de cuello blanco que le ayudará con diversas tareas'. En los lugares de trabajo, por ejemplo, la IA puede mejorar la productividad al servir como un recurso con el que los empleados pueden comunicarse y ahorrar tiempo al escribir correos electrónicos.


En el ámbito del aprendizaje, la IA puede ayudar a identificar qué motiva a los estudiantes y qué les hace perder el interés, para luego ofrecer contenido personalizado en función de esa información. También puede ayudar a los profesores a planificar los planes de aprendizaje de la enseñanza de los cursos, ayudar a evaluar los conocimientos de los estudiantes en los exámenes o en determinados temas y brindar apoyo como tutor en formación.


En el ámbito de la atención sanitaria, la IA ayudará a completar trámites, presentar reclamaciones a seguros y potenciar el uso de ecógrafos que se puedan utilizar con un mínimo de formación. Probablemente lo más impresionante es que puede ayudar a personas de países empobrecidos que apenas pueden acudir al médico cuando lo necesitan.


Después de conocer ChatGPT, Bill Gates, el creador del lenguaje de programación BASIC para Altair 8800 y del sistema operativo MS-DOS para IBM PC, quedó tan impresionado que dijo:


“Sabía que acababa de presenciar el avance tecnológico más importante desde la interfaz gráfica de usuario”.


Está convencido de que “la IA cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención médica y se comunican entre sí”. En cinco años, la IA puede agregar más de 15 billones de dólares a la economía global a través de avances en medicina, biología, ciencia climática, educación, procesos comerciales, fabricación, servicio al cliente, transporte y más.


Pero la IA, como ocurre con muchas tecnologías nuevas, genera malestar entre muchos. Elon Musk y Geoffrey Hinton son los últimos en manifestar abiertamente su opinión de que la IA conlleva riesgos potencialmente destructivos.


Independientemente del grupo al que pertenezcamos, debemos aceptar el hecho: el caballo de la IA ha salido del establo y no volverá. Otro hecho puede ser que estemos asumiendo riesgos que podrían afectar profundamente a la humanidad.

La IA podría "manipular a la gente para que haga lo que quiera"

Aprender sobre los riesgos de la IA es como atravesar un agujero de gusano: cuanto más se avanza, más oscuro se vuelve.


En vísperas del lunes 23 de mayo, una polémica imagen de un Explosión cerca del complejo del Pentágono El anuncio se hizo viral en Internet y tomó al mundo por sorpresa. Los “tictac azules” de Twitter se sumaron a la noticia. El mercado de valores se tambaleó y el S&P 500 se desplomó 30 puntos.


Imagen: Imagen falsa generada por inteligencia artificial del ataque al complejo del Pentágono. Por TMZ


Lamentablemente, esto es sólo el comienzo del potencial de la IA para difundir información errónea, impulsar propaganda no basada en hechos e inducir pánico.


El científico informático Geoffrey Hinton, que recibió el apodo de "El padrino de la IA" debido a sus primeros trabajos sobre algoritmos que entrenan máquinas que sustentan la IA, dijo recientemente New York Times que Los laboratorios de inteligencia artificial están creando una bestia que será difícil de domar y que podría “manipular a la gente para que haga lo que quiera”.


Cree firmemente que las máquinas de IA están diseñadas para volverse más inteligentes que los humanos, y que lo que sus temores tardarían hasta 50 años en hacerse realidad, ahora cree que podrían llamar a nuestra puerta tecnológica "tan pronto como dentro de 5 o 10 años". Hace unas semanas, dejó su trabajo a tiempo parcial en Google y dejó de contribuir al chatbot Bard de la empresa para enviar un mensaje al mundo:


“Quiero hacer una especie de denuncia y decir que deberíamos preocuparnos seriamente por cómo evitar que estas cosas nos controlen”.


La empresa detrás del chatbot de IA más poderoso del mundo hasta la fecha, OpenAI, en un Declaración reciente admitió que "En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos".


La cita terminó siendo incluida en un carta abierta pidiendo a los responsables políticos que pausen el desarrollo de sistemas de IA más fuertes que GPT-4 de los laboratorios de IA, una carta que desde entonces ha sido firmada por personas como el CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y más de 50.000 expertos y entusiastas de la IA y la tecnología.


La carta sugiere que pausar el trabajo de los laboratorios de IA durante al menos seis meses es la única manera de tener tiempo suficiente para prepararse para regulaciones adecuadas y disfrutar de un “verano de IA” sin apresurarse hacia un “otoño” destructivo.


Elon Musk sorprendió a muchos cuando dijo: criticó abiertamente a OpenAI , una empresa en la que supuestamente invirtió más de mil millones de dólares a lo largo del tiempo, por convertirse en una “empresa de código cerrado y máxima ganancia”, algo que, según él, “nunca tuvo la intención”.


Imagen: Elon Musk comentando la intención original detrás de OpenAI. Twitter


Sundar Pichai, de Google, tampoco tomó a la ligera su declaración sobre la IA, diciendo que sus riesgos “mantenerlo despierto por la noche.” Google vio recientemente más de 100 mil millones de dólares ser borrado de la capitalización de mercado de la empresa debido a una respuesta incorrecta de su chatbot recién lanzado, Bard.

El nuevo complemento GPT de OpenAI puede incluso tomar decisiones por empresas

Como si los chatbots impulsados por IA no fueran suficientes, el reconocido ChatGPT de OpenAI anunció recientemente un complemento que permite a la IA tomar decisiones con respecto a su anfitrión. Las principales empresas, incluidas Expedia , Mesa abierta , Instacart , y Banco Klarna , ya han integrado el complemento en sus servicios.


La IA ahora puede incluso realizar tareas cotidianas en nombre de las personas, como pedir una bebida, reservar un hotel o reservar el mejor asiento posible en un restaurante. Una nueva parte de la IA, conocida como "intérprete de códigos", también puede escribir y ejecutar códigos en nombre de una empresa. Y eso es peligroso desde una perspectiva de seguridad. O, como Abanico Linxi “Jim” , un científico investigador de NVIDIA AI, lo explicó: “[La próxima generación de] ChatGPT será como una metaaplicación: una aplicación que usa otras aplicaciones”.


El anuncio del complemento GPT ha suscitado muchas dudas. Uno de ellos es Ali Alkhatib, director interino del Centro de Ética de Datos Aplicados de la Universidad de San Francisco. Sostiene que parte del problema con los complementos para modelos de lenguaje es que podrían ayudar a desbloquear fácilmente dichos sistemas, y advierte que:


“Las cosas se están moviendo tan rápido que no sólo son peligrosas, sino que en realidad son dañinas para mucha gente”.


Pasar de la generación de contenido a la acción en nombre de las personas cierra la brecha de acceso de los modelos lingüísticos a la toma de decisiones. “Sabemos que los modelos pueden ser pirateados, y ahora los estamos conectando a Internet para que puedan potencialmente tomar medidas”, dice Dan Hendricks , director del Centro para la Seguridad de la IA.


Hendricks sospecha que las extensiones inspiradas en los complementos de ChatGPT podrían simplificar tareas como el phishing selectivo o los correos electrónicos de phishing. Agregó: “Eso no quiere decir que, por su propia voluntad, ChatGPT vaya a crear bombas o algo así, pero hace que sea mucho más fácil hacer este tipo de cosas”.


Kanjun Qiu, director ejecutivo de Generalmente inteligente , añade que los chatbots de IA “podrían tener consecuencias no deseadas”. Por ejemplo, un complemento de este tipo podría reservar un hotel demasiado caro o distribuir información errónea y estafas.


No sólo eso. El equipo rojo de GPT-4 descubrió que podía “enviar correos electrónicos fraudulentos o spam, eludir restricciones de seguridad o hacer un uso indebido de la información enviada al complemento”, como informó Emily Bender, profesora de lingüística de la Universidad de Washington.

El equipo rojo de GPT-4 también admitió que, dado que GPT-4 puede ejecutar comandos de Linux, tiene el potencial de explicar cómo fabricar armas biológicas, sintetizar bombas o comprar ransomware en la red oscura. Bender agregó:


“Dejar que los sistemas automatizados actúen en el mundo es una elección que hacemos”.

¿Puede la IA transformar industrias que giran en torno a la psicología?

ChatGPT se ha apoderado de las conversaciones en línea, desde revistas hasta plataformas de redes sociales como LinkedIn, sobre sugerencias para usar la herramienta para obtener mejores resultados, opiniones sobre su impacto y demás. Muchos de estos escritos los realiza el propio ChatGPT.


La psicología y las emociones son aspectos en los que la IA y ChatGPT no consiguen impresionar. Por ejemplo, escribir un post actualizado cuando una injusticia social ha conquistado las noticias o escribir un anuncio que conecte con las emociones de la audiencia y ofrezca soluciones genuinas a sus puntos débiles. La última vez que pregunté a ChatGPT, sus respuestas estaban lejos de ser convincentes. Básicas, en el mejor de los casos.


Imagen: Publicación en redes sociales generada por IA sobre ESG, ChatGPT


Probablemente no sea la publicación en redes sociales más impresionante sobre ESG. La limitación se debe principalmente a que la IA no es necesariamente buena para comprender el concepto principal de una solicitud humana, lo que conduce a algunas respuestas extrañas. Aquí es donde entran en juego la psicología y la emoción humana en el marketing.


Cuando se trata de marketing SEO, en su artículo reciente, Victoria Kuchurenko comparte cómo su artículo generado por IA se desempeñó en los motores de búsqueda. A pesar de publicarse en un dominio completamente saludable, el artículo se ubicó en el puesto 45 para la misma palabra clave, con una tendencia negativa de impresiones. "Creo que las impresiones eventualmente caerán a 0. Así es como el contenido de IA se desempeña en los resultados de búsqueda orgánicos hoy", escribió.


Algunos pueden argumentar que el software proporciona los resultados según las indicaciones que se le piden. Esto puede ser cierto hasta cierto punto, pero no del todo.

En esencia, ChatGPT funciona con inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural (PLN), lo que significa que puede ofrecer tanta información como se le haya proporcionado y tal como haya sido programada.


Shagorika Heryani , una experta en marketing con más de 20 años de experiencia que ha liderado algunas de las marcas más importantes de la India y los Emiratos Árabes Unidos, dijo que, por muy buena que sea la IA, "no puede reemplazar la creatividad humana; simplemente obliga a los especialistas en marketing a volver a los fundamentos del marketing, que se basan en la psicología humana, la resolución de problemas, la creatividad y el pensamiento crítico". Pero también cree que la IA inevitablemente alterará el espacio del marketing y tiene grandes preocupaciones sobre la dirección de la IA en el marketing.


“El mayor peligro es que la militarización de la información se vuelva mucho más aterradora, especialmente con la falta de límites de la IA para formar opiniones sobre política, religión y otros temas sensibles, de maneras que los especialistas en marketing podíamos manejar antes”.


Los especialistas en marketing humano ofrecen diferenciación, un sentido de pertenencia, comunidad y conexión emocional para el consumidor, algo en lo que la IA difícilmente podrá sobresalir.

'Un empleado administrativo que te ayuda con diversas tareas'. Pero también con muchos riesgos.

“¿Crees que ChatGPT y la IA se impondrán?”, me preguntó una amiga. No es la única que duda sobre el potencial de la IA para impactar masivamente en el futuro, tanto de forma negativa como positiva. La respuesta más contundente a esta pregunta probablemente la dé “El Padrino de la IA”, quien dice: “No es inconcebible. Eso es todo lo que diré”.


Es hora de que los laboratorios de inteligencia artificial pongan freno y los gobiernos desarrollen “regulaciones extremadamente poderosas” para limitar los riesgos que la inteligencia artificial presenta para la humanidad. Con la forma en que avanzan los avances en inteligencia artificial, una cosa es segura: el tiempo avanza a paso lento.