La tecnología de IA generativa se puede utilizar para crear contenido nuevo, como texto, imágenes, audio e incluso vídeos, de forma muy similar a como lo haría un ser humano. Esta tecnología se ha vuelto increíblemente popular y generalizada. Un informe de Europol predice que el 90% del contenido en línea podría generarse mediante IA en unos pocos años. Sin embargo, la IA generativa es un arma de doble filo. Por un lado, la IA generativa tiene un potencial inmenso en varios sectores. Puede mejorar el servicio al cliente a través de chatbots inteligentes, ayudar en las industrias creativas generando arte y música, e incluso ayudar en la investigación médica simulando procesos biológicos complejos. Sin embargo, la misma tecnología que impulsa estas innovaciones también puede ser utilizada como arma por actores maliciosos.
Recientemente, se ha producido un aumento del uso indebido de esta tecnología para actividades fraudulentas. A medida que los modelos generativos se vuelven cada vez más sofisticados, también lo hacen los métodos que emplean los actores maliciosos para explotarlos con fines maliciosos. Comprender las diversas formas en que se abusa de la IA generativa es crucial para desarrollar defensas sólidas y garantizar la integridad y la confiabilidad de las plataformas digitales. Si bien las formas novedosas y enrevesadas en que los actores maliciosos utilizan esta tecnología son cada vez más sofisticadas, exploraremos los diferentes tipos de fraude facilitados por la IA generativa que ya están siendo denunciados ampliamente por las víctimas.
Uno de los usos más notorios de la IA generativa es la creación de vídeos deepfake, representaciones hiperrealistas pero completamente falsas de personas. Cuando se ataca a políticos de alto perfil, especialmente en el contexto de acontecimientos importantes como guerras o elecciones, las consecuencias pueden ser graves. Los deepfakes pueden causar pánico generalizado y perturbar acontecimientos críticos. Por ejemplo, durante la guerra circuló un vídeo deepfake del presidente ucraniano Volodymyr Zelensky rindiéndose, y en la India, justo antes de las elecciones, un vídeo manipulado mostraba falsamente al ministro del Interior de la Unión, Amit Shah, afirmando que se abolirían todas las reservas basadas en castas, lo que provocó tensiones entre las comunidades. Más recientemente, una imagen falsa de Donald Trump siendo arrestado se volvió viral en X (ver Figura 1).
Los chatbots avanzados impulsados por IA pueden imitar conversaciones humanas con una precisión asombrosa. Los estafadores lanzan ataques de phishing utilizando chatbots de IA para hacerse pasar por representantes bancarios. Los clientes reciben llamadas y mensajes de estos bots, que piden de manera convincente información confidencial con el pretexto de resolver problemas de cuenta. Muchas personas desprevenidas caen víctimas de estas estafas, lo que resulta en pérdidas financieras significativas. Los estafadores pueden usar IA para generar grabaciones de voz realistas de ejecutivos para autorizar transacciones fraudulentas, un esquema conocido como "fraude del CEO". En un caso notable , un empleado de una empresa multinacional de Hong Kong fue engañado para pagar 25 millones de dólares a estafadores que usaban tecnología deepfake para hacerse pasar por el director financiero de la empresa en una videoconferencia. Estas estafas explotan la confianza y la autoridad de funcionarios de alto rango, lo que causa un daño financiero significativo a las empresas.
La IA generativa también puede producir artículos de noticias falsas convincentes, que pueden difundirse rápidamente a través de las redes sociales. Durante la pandemia de COVID-19, numerosos artículos de noticias falsas y publicaciones en las redes sociales difundieron información errónea sobre el virus y las vacunas. Hubo muchas noticias falsas perjudiciales en WhatsApp y otras redes sociales que afirmaban que ciertos remedios ayurvédicos podrían curar la COVID-19, lo que provocó un pánico generalizado y prácticas de automedicación equivocadas. Con la IA generativa, los estafadores no tienen que hacer mucho esfuerzo para generar noticias falsas a gran escala y crear pánico entre la gente. Por ejemplo, se pueden generar fácilmente imágenes manipuladas con personas reales, lugares reales y convertirlas en noticias sensacionalistas. Aquí hay un ejemplo que muestra una imagen falsa del Taj Mahal afectado por un terremoto generada utilizando el modelo DALL-E de OpenAI (Figura 2).
Aquí hay otra que muestra el hotel Taj en Mumbai en llamas (que recuerda el ataque terrorista de 2008) en la Figura 3.
Los ciberdelincuentes, así como las personas con malas intenciones, pueden utilizar la tecnología de IA generativa para lanzar campañas de acoso que den como resultado reputaciones arruinadas o formas más tradicionales de acoso en línea. Las víctimas pueden ser personas privadas o figuras públicas. Las tácticas pueden incluir la creación de imágenes falsas, videos falsos en situaciones comprometedoras o en entornos manipulados. Por ejemplo, en enero de 2024, la megaestrella del pop Taylor Swift se convirtió en el último objetivo de alto perfil de imágenes deepfake sexualmente explícitas y no consensuadas realizadas con inteligencia artificial que circularon ampliamente en las plataformas de redes sociales.
La IA generativa puede copiar voces y semejanzas, lo que permite que las personas parezcan decir o hacer casi cualquier cosa. Esta tecnología es similar a los vídeos "deepfake" pero se aplica a las voces. Las voces generadas por IA se están utilizando para mejorar las estafas, haciéndolas más convincentes. Por ejemplo, alguien puede extraer tu voz de Internet y usarla para llamar a tu abuela y pedirle dinero. Los actores de amenazas pueden obtener fácilmente unos segundos de la voz de alguien de las redes sociales u otras fuentes de audio y utilizar la IA generativa para producir guiones completos de lo que quieran que diga esa persona. Esto hará que la persona afectada crea que la llamada es de sus amigos o familiares y, por lo tanto, será engañada para que envíe dinero al estafador pensando que un ser querido lo necesita.
Las estafas románticas están aumentando y, en India, un informe indica que un asombroso 66 por ciento de las personas del país caen presas de engañosas estafas de citas en línea. Se puede fabricar una personalidad completamente falsa utilizando IA generativa. Los estafadores pueden crear documentación inventada, como pasaportes o tarjetas Aadhar. Incluso pueden crear imágenes falsas de sí mismos, como la imagen que se muestra a continuación de una persona falsa frente a una bonita casa y un coche de lujo. Incluso pueden hacer llamadas con una voz falsa y convencerte de que la IA es una persona real y, finalmente, atacarte emocionalmente para desarrollar sentimientos por ellos y, más tarde, extorsionarte para que te dé dinero o regalos. Aquí hay un ejemplo (en la Figura 4) de una imagen generada por IA de una persona falsa, generada con el bot Midjourney.
La publicidad engañosa puede implicar afirmaciones falsas o incluso la creación de productos o servicios totalmente falsos. Esto puede llevar a los consumidores a realizar compras desinformadas o fraudulentas. GenAI se puede utilizar para generar reseñas, calificaciones y recomendaciones de productos sintéticos falsos en plataformas de comercio electrónico. Estas reseñas falsas pueden aumentar artificialmente la reputación de productos de baja calidad o dañar la reputación de los genuinos. Los estafadores pueden utilizar GenAI para crear listados de productos falsificados o sitios web que parecen legítimos, lo que dificulta que los consumidores distingan entre vendedores genuinos y fraudulentos. Se pueden utilizar chatbots o agentes de servicio al cliente basados en IA para proporcionar información engañosa a los compradores, lo que puede llevar a decisiones de compra mal informadas. De modo que se puede configurar fácilmente todo un ecosistema de negocios falsos.
Con los ejemplos anteriores, queda claro que se puede crear contenido dañino a gran escala utilizando IA generativa con una facilidad alarmante. La IA generativa actúa como una herramienta de productividad, aumentando el volumen y la sofisticación del contenido. Los aficionados se están incorporando al juego con mayor facilidad y hay una tendencia significativa hacia la explotación de las redes sociales para obtener ganancias económicas. Los creadores sofisticados de desinformación son muy capaces de escalar y utilizar la IA para traducirse a otros idiomas y llevar su contenido a países y personas a las que antes no podían llegar. Hay algunas medidas que todos pueden tomar para estar alerta y protegerse de las estafas impulsadas por la IA. La concienciación y la vigilancia son clave para protegerse contra el fraude impulsado por la IA.
Siempre verifique la fuente del contenido. Si bien todas las principales empresas de tecnología están colocando marcas de agua en el contenido generado por IA como una solución clave para permitir que los desarrolladores encripten las marcas de agua , lo que proporciona una mejor detección y autenticidad del contenido generado por IA, el grupo general de personas no tecnológicas no conocen dichas tecnologías y no saben cómo identificar las marcas de agua o usar herramientas de detección de contenido generado por IA. Sin embargo, una cosa básica que todos pueden hacer es verificar siempre la fuente de cualquier imagen, video o mensaje de voz sospechoso. Si recibe un video que parece fuera de lugar para la persona representada, verifique con otras fuentes y comuníquese directamente con la persona. Por ejemplo, un video deepfake de un político haciendo declaraciones incendiarias debe verificarse a través de canales oficiales. Un video de un familiar secuestrado o en apuros debe verificarse llamando a la persona o una conexión mutua. De manera similar, una llamada de voz de alguien que dice ser un alto ejecutivo o un representante del banco que solicita información confidencial, se puede verificar devolviendo la llamada a un número conocido y confiable como el número de servicio al cliente oficial de un banco para confirmar.
Limita la divulgación de información personal. Los estafadores suelen utilizar datos de las redes sociales para crear deepfakes y mensajes de voz convincentes. Evita publicar información confidencial, como tu dirección, número de teléfono y datos financieros. Ajusta la configuración de privacidad de tus cuentas de redes sociales para limitar la visibilidad de tus publicaciones e información personal. Solo permite que familiares y amigos de confianza vean tu perfil y tus publicaciones. En Facebook o Instagram, puedes revisar y ajustar tu configuración de privacidad para asegurarte de que solo tus amigos puedan ver tus publicaciones. Evita compartir detalles como tus planes de vacaciones, que podrían ser utilizados por los estafadores para atacarte mientras estás fuera. Mantén tu perfil y lista de amigos privados para que los estafadores no ataquen a tu familia y amigos con tus videos y llamadas de voz falsos. Limitar la cantidad de información personal disponible en línea hace que sea más difícil para los estafadores recopilar datos sobre ti. Esto reduce la probabilidad de que puedan crear deepfakes convincentes o hacerse pasar por ti.
Mientras nos encontramos al borde de una era impulsada por la IA, la batalla entre la innovación y la explotación se intensifica. El aumento del fraude impulsado por la IA no es solo un desafío, es un llamado a la acción. Con la IA generativa capaz de crear deepfakes convincentes, clones de voz realistas y sofisticados esquemas de phishing, el potencial de engaño nunca ha sido mayor. Sin embargo, en medio de estas amenazas se esconde una oportunidad: la de redefinir nuestro enfoque de la seguridad y la confianza digitales. No basta con estar alerta; debemos ser proactivos, aprovechando la misma tecnología de vanguardia para desarrollar sistemas de detección avanzados y campañas de educación pública. El futuro de la IA no está predeterminado. Si tomamos medidas decisivas hoy, podemos dar forma a un panorama digital donde la promesa de la IA generativa se haga realidad sin caer presa de sus peligros. Que este sea nuestro momento de levantarnos, innovar y proteger, garantizando un mundo digital más seguro para todos.