ChatGPT ha captado la atención de las personas, cambiando sus flujos de trabajo y alterando la forma en que obtienen información en línea. Incluso aquellos que no lo han probado sienten curiosidad por saber cómo los chatbots de inteligencia artificial (IA) impactarán en el futuro.
Los ciberdelincuentes han explorado cómo podrían capitalizar el fenómeno. FraudGPT es un ejemplo reciente de eso.
FraudGPT es un producto vendido en la web oscura y Telegram que funciona de manera similar a ChatGPT pero crea contenido para facilitar los ataques cibernéticos. Miembros del equipo de investigación de amenazas de Netenrich
Más detalles dicen que la herramienta se actualiza cada una o dos semanas y presenta diferentes modelos de IA bajo el capó. FraudGPT también tiene un modelo de precios basado en suscripción. Las personas pueden pagar $200 para usarlo mensualmente o $1,700 por un año.
El equipo de Netenrich compró y probó FraudGPT. La interfaz se parece a ChatGPT, con un registro de las solicitudes anteriores del usuario en la barra lateral izquierda y la ventana de chat ocupando la mayor parte de la pantalla. Las personas solo necesitan escribir en la ventana Hacer una pregunta y presionar Entrar para generar la respuesta.
Una de las indicaciones de prueba le pidió a la herramienta que creara correos electrónicos de phishing relacionados con el banco. Los usuarios simplemente necesitaban formatear sus preguntas para incluir el nombre del banco, y FraudGPT haría el resto. Incluso sugirió en qué parte del contenido la gente debería insertar un enlace malicioso. FraudGPT podría ir más allá al crear páginas de destino fraudulentas que animen a los visitantes a proporcionar información.
Otras indicaciones solicitaron a FraudGPT que enumerara los sitios o servicios más específicos o utilizados. Esa información podría ayudar a los piratas informáticos a planificar futuros ataques. Un anuncio en la web oscura del producto mencionaba que podría crear código malicioso, generar malware indetectable, encontrar vulnerabilidades, identificar objetivos y más.
El equipo de Netenrich también identificó al vendedor de FraudGPT como alguien que anteriormente ofrecía servicios de hackers a sueldo. Además, vincularon a la misma persona con una herramienta similar llamada WormGPT.
Los investigadores de SlashNext dijeron que los algoritmos de la herramienta
La evidencia de estas herramientas demuestra que los ciberdelincuentes siguen evolucionando para que sus ataques sean cada vez más exitosos. ¿Qué pueden hacer los profesionales y entusiastas de la tecnología para mantenerse a salvo?
La investigación de FraudGPT destacó la necesidad de mantenerse alerta. Estas herramientas son nuevas, por lo que es demasiado pronto para decir cuándo los piratas informáticos podrían usarlas para crear amenazas nunca antes vistas, o si ya lo han hecho. Sin embargo, FraudGPT y otros productos utilizados con fines maliciosos podrían ayudar a los piratas informáticos a ahorrar tiempo. Podrían escribir correos electrónicos de phishing en segundos o desarrollar páginas de destino completas casi con la misma rapidez.
Eso significa que las personas deben seguir las mejores prácticas de seguridad cibernética, lo que incluye sospechar siempre de las solicitudes de información personal. Las personas con funciones de seguridad cibernética deben actualizar sus herramientas de detección de amenazas y saber que los malos actores pueden usar herramientas como FraudGPT para atacar e infiltrarse directamente en las infraestructuras en línea.
Más trabajadores están usando ChatGPT en sus trabajos, pero eso no es necesariamente bueno para la ciberseguridad. Los empleados podrían comprometer involuntariamente la información confidencial de la empresa al pegarla en ChatGPT. Las empresas, incluidas Apple y Samsung, han
Un estudio encontró que
Esos temores no son infundados. Un error de ChatGPT de marzo de 2023 filtró los detalles de pago de las personas que habían usado la herramienta
También podrían surgir problemas si los trabajadores asumen que cualquier información que obtengan de ChatGPT es correcta. Las personas que utilizan la herramienta para tareas de programación y codificación han advertido que
Un artículo de investigación de agosto de 2023 de la Universidad de Purdue confirmó esa afirmación al probar ChatGPT en preguntas de programación. Las sorprendentes conclusiones que encontró la herramienta
Una cosa fundamental a tener en cuenta es que los piratas informáticos aún pueden causar daños extraordinarios sin pagar por productos como FraudGPT. Los investigadores de ciberseguridad ya han señalado que la versión gratuita de ChatGPT les permite hacer muchas de las mismas cosas. Las protecciones integradas de esa herramienta pueden dificultar la obtención inmediata de los resultados deseados. Sin embargo, los delincuentes saben cómo ser creativos, lo que puede incluir la manipulación de ChatGPT para que funcione como ellos quieren.
AI podría finalmente
Otra posibilidad es que las personas puedan descargar lo que creen que es la aplicación ChatGPT genuina y recibir malware en su lugar. no pasó mucho tiempo para
Los piratas suelen incorporar malware en aplicaciones aparentemente legítimas. La gente también debería esperar que aprovechen la popularidad de ChatGPT de esa manera.
La investigación sobre FraudGPT es un recordatorio memorable de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto. Sin embargo, las herramientas disponibles gratuitamente también plantean riesgos de ciberseguridad. Cualquiera que use Internet o trabaje para asegurar infraestructuras en línea debe estar al tanto de las nuevas tecnologías y sus riesgos. La clave es usar herramientas como ChatGPT de manera responsable sin dejar de ser consciente del daño potencial.