Muchas personalidades destacadas han hablado recientemente sobre la IA y han plasmado sus opiniones en un papel. Algunas instan a ver la IA desde una perspectiva positiva, mientras que otras advierten que puede entrañar "profundos riesgos para la humanidad".
Algunos expertos argumentan que AI y ChatGPT pueden actuar como un
En el ámbito del aprendizaje, la IA puede ayudar a identificar qué motiva a los estudiantes y qué les hace perder el interés, para luego ofrecer contenido personalizado en función de esa información. También puede ayudar a los profesores a planificar los planes de aprendizaje de la enseñanza de los cursos, ayudar a evaluar los conocimientos de los estudiantes en los exámenes o en determinados temas y brindar apoyo como tutor en formación.
En el ámbito de la atención sanitaria, la IA ayudará a completar trámites, presentar reclamaciones a seguros y potenciar el uso de ecógrafos que se puedan utilizar con un mínimo de formación. Probablemente lo más impresionante es que puede ayudar a personas de países empobrecidos que apenas pueden acudir al médico cuando lo necesitan.
Después de conocer ChatGPT, Bill Gates, el creador del lenguaje de programación BASIC para Altair 8800 y del sistema operativo MS-DOS para IBM PC, quedó tan impresionado que dijo:
“Sabía que acababa de presenciar el avance tecnológico más importante desde la interfaz gráfica de usuario”.
Está convencido de que “la IA cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención médica y se comunican entre sí”. En cinco años, la IA puede agregar más de 15 billones de dólares a la economía global a través de avances en medicina, biología, ciencia climática, educación, procesos comerciales, fabricación, servicio al cliente, transporte y más.
Pero la IA, como ocurre con muchas tecnologías nuevas, genera malestar entre muchos. Elon Musk y Geoffrey Hinton son los últimos en manifestar abiertamente su opinión de que la IA conlleva riesgos potencialmente destructivos.
Independientemente del grupo al que pertenezcamos, debemos aceptar el hecho: el caballo de la IA ha salido del establo y no volverá. Otro hecho puede ser que estemos asumiendo riesgos que podrían afectar profundamente a la humanidad.
Aprender sobre los riesgos de la IA es como atravesar un agujero de gusano: cuanto más se avanza, más oscuro se vuelve.
En vísperas del lunes 23 de mayo, una polémica imagen de un
Lamentablemente, esto es sólo el comienzo del potencial de la IA para difundir información errónea, impulsar propaganda no basada en hechos e inducir pánico.
El científico informático Geoffrey Hinton, que recibió el apodo de "El padrino de la IA" debido a sus primeros trabajos sobre algoritmos que entrenan máquinas que sustentan la IA, dijo recientemente
Cree firmemente que las máquinas de IA están diseñadas para volverse más inteligentes que los humanos, y que lo que sus temores tardarían hasta 50 años en hacerse realidad, ahora cree que podrían llamar a nuestra puerta tecnológica "tan pronto como dentro de 5 o 10 años". Hace unas semanas, dejó su trabajo a tiempo parcial en Google y dejó de contribuir al chatbot Bard de la empresa para enviar un mensaje al mundo:
“Quiero hacer una especie de denuncia y decir que deberíamos preocuparnos seriamente por cómo evitar que estas cosas nos controlen”.
La empresa detrás del chatbot de IA más poderoso del mundo hasta la fecha, OpenAI, en un
La cita terminó siendo incluida en un
La carta sugiere que pausar el trabajo de los laboratorios de IA durante al menos seis meses es la única manera de tener tiempo suficiente para prepararse para regulaciones adecuadas y disfrutar de un “verano de IA” sin apresurarse hacia un “otoño” destructivo.
Elon Musk sorprendió a muchos cuando dijo:
Sundar Pichai, de Google, tampoco tomó a la ligera su declaración sobre la IA, diciendo que sus riesgos
Como si los chatbots impulsados por IA no fueran suficientes, el reconocido ChatGPT de OpenAI anunció recientemente un complemento que permite a la IA tomar decisiones con respecto a su anfitrión. Las principales empresas, incluidas
La IA ahora puede incluso realizar tareas cotidianas en nombre de las personas, como pedir una bebida, reservar un hotel o reservar el mejor asiento posible en un restaurante. Una nueva parte de la IA, conocida como "intérprete de códigos", también puede escribir y ejecutar códigos en nombre de una empresa. Y eso es peligroso desde una perspectiva de seguridad. O, como
El anuncio del complemento GPT ha suscitado muchas dudas. Uno de ellos es Ali Alkhatib, director interino del Centro de Ética de Datos Aplicados de la Universidad de San Francisco. Sostiene que parte del problema con los complementos para modelos de lenguaje es que podrían ayudar a desbloquear fácilmente dichos sistemas, y advierte que:
“Las cosas se están moviendo tan rápido que no sólo son peligrosas, sino que en realidad son dañinas para mucha gente”.
Pasar de la generación de contenido a la acción en nombre de las personas cierra la brecha de acceso de los modelos lingüísticos a la toma de decisiones. “Sabemos que los modelos pueden ser pirateados, y ahora los estamos conectando a Internet para que puedan potencialmente tomar medidas”, dice
Hendricks sospecha que las extensiones inspiradas en los complementos de ChatGPT podrían simplificar tareas como el phishing selectivo o los correos electrónicos de phishing. Agregó: “Eso no quiere decir que, por su propia voluntad, ChatGPT vaya a crear bombas o algo así, pero hace que sea mucho más fácil hacer este tipo de cosas”.
Kanjun Qiu, director ejecutivo de
No sólo eso. El equipo rojo de GPT-4 descubrió que podía “enviar correos electrónicos fraudulentos o spam, eludir restricciones de seguridad o hacer un uso indebido de la información enviada al complemento”, como informó Emily Bender, profesora de lingüística de la Universidad de Washington.
El equipo rojo de GPT-4 también admitió que, dado que GPT-4 puede ejecutar comandos de Linux, tiene el potencial de explicar cómo fabricar armas biológicas, sintetizar bombas o comprar ransomware en la red oscura. Bender agregó:
“Dejar que los sistemas automatizados actúen en el mundo es una elección que hacemos”.
ChatGPT se ha apoderado de las conversaciones en línea, desde revistas hasta plataformas de redes sociales como LinkedIn, sobre sugerencias para usar la herramienta para obtener mejores resultados, opiniones sobre su impacto y demás. Muchos de estos escritos los realiza el propio ChatGPT.
La psicología y las emociones son aspectos en los que la IA y ChatGPT no consiguen impresionar. Por ejemplo, escribir un post actualizado cuando una injusticia social ha conquistado las noticias o escribir un anuncio que conecte con las emociones de la audiencia y ofrezca soluciones genuinas a sus puntos débiles. La última vez que pregunté a ChatGPT, sus respuestas estaban lejos de ser convincentes. Básicas, en el mejor de los casos.
Probablemente no sea la publicación en redes sociales más impresionante sobre ESG. La limitación se debe principalmente a que la IA no es necesariamente buena para comprender el concepto principal de una solicitud humana, lo que conduce a algunas respuestas extrañas. Aquí es donde entran en juego la psicología y la emoción humana en el marketing.
Cuando se trata de marketing SEO, en su artículo reciente,
Algunos pueden argumentar que el software proporciona los resultados según las indicaciones que se le piden. Esto puede ser cierto hasta cierto punto, pero no del todo.
En esencia, ChatGPT funciona con inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural (PLN), lo que significa que puede ofrecer tanta información como se le haya proporcionado y tal como haya sido programada.
“El mayor peligro es que la militarización de la información se vuelva mucho más aterradora, especialmente con la falta de límites de la IA para formar opiniones sobre política, religión y otros temas sensibles, de maneras que los especialistas en marketing podíamos manejar antes”.
Los especialistas en marketing humano ofrecen diferenciación, un sentido de pertenencia, comunidad y conexión emocional para el consumidor, algo en lo que la IA difícilmente podrá sobresalir.
“¿Crees que ChatGPT y la IA se impondrán?”, me preguntó una amiga. No es la única que duda sobre el potencial de la IA para impactar masivamente en el futuro, tanto de forma negativa como positiva. La respuesta más contundente a esta pregunta probablemente la dé “El Padrino de la IA”, quien dice: “No es inconcebible. Eso es todo lo que diré”.
Es hora de que los laboratorios de inteligencia artificial pongan freno y los gobiernos desarrollen “regulaciones extremadamente poderosas” para limitar los riesgos que la inteligencia artificial presenta para la humanidad. Con la forma en que avanzan los avances en inteligencia artificial, una cosa es segura: el tiempo avanza a paso lento.