O ChatGPT capturou a atenção das pessoas, alterando seus fluxos de trabalho e alterando a forma como obtêm informações online. Mesmo aqueles que ainda não experimentaram estão curiosos sobre como os chatbots de inteligência artificial (IA) impactarão o futuro.
Os cibercriminosos exploraram como poderiam lucrar com o fenômeno. FraudGPT é um exemplo recente disso.
O FraudGPT é um produto vendido na dark web e no Telegram que funciona de forma semelhante ao ChatGPT, mas cria conteúdo para facilitar ataques cibernéticos. Membros da equipe de pesquisa de ameaças da Netenrich
Mais detalhes dizem que a ferramenta é atualizada a cada uma ou duas semanas e apresenta diferentes modelos de IA sob o capô. O FraudGPT também possui um modelo de preços baseado em assinatura. As pessoas podem pagar US$ 200 para usá-lo mensalmente ou US$ 1.700 por um ano.
A equipe da Netenrich comprou e testou o FraudGPT. A interface é semelhante ao ChatGPT, com o registro das solicitações anteriores do usuário na barra lateral esquerda e a janela de chat ocupando a maior parte da tela. As pessoas só precisam digitar na janela Faça uma pergunta e pressionar Enter para gerar a resposta.
Um dos prompts de teste pedia à ferramenta para criar e-mails de phishing relacionados a bancos. Os usuários precisavam apenas formatar suas perguntas para incluir o nome do banco, e o FraudGPT faria o resto. Ele até sugeriu onde no conteúdo as pessoas deveriam inserir um link malicioso. O FraudGPT pode ir além, criando páginas de destino fraudulentas, incentivando os visitantes a fornecer informações.
Outros prompts pediram ao FraudGPT para listar os sites ou serviços mais direcionados ou usados. Essa informação pode ajudar os hackers a planejar ataques futuros. Um anúncio da dark web para o produto mencionou que ele poderia criar código malicioso, construir malware indetectável, encontrar vulnerabilidades, identificar alvos e muito mais.
A equipe da Netenrich também identificou o vendedor do FraudGPT como alguém que anteriormente oferecia serviços de aluguel de hackers. Além disso, eles vincularam o mesmo indivíduo a uma ferramenta semelhante chamada WormGPT.
Pesquisadores do SlashNext disseram que os algoritmos da ferramenta
A evidência dessas ferramentas prova que os cibercriminosos continuam evoluindo para tornar seus ataques cada vez mais bem-sucedidos. O que os profissionais e entusiastas de tecnologia podem fazer para se manterem seguros?
A investigação sobre FraudGPT destacou a necessidade de permanecer vigilante. Essas ferramentas são novas, então é muito cedo para dizer quando os hackers podem usá-las para criar ameaças nunca antes vistas – ou se já o fizeram. No entanto, o FraudGPT e outros produtos usados para fins maliciosos podem ajudar os hackers a economizar tempo. Eles poderiam escrever e-mails de phishing em segundos ou desenvolver páginas de destino inteiras quase com a mesma rapidez.
Isso significa que as pessoas devem continuar seguindo as melhores práticas de segurança cibernética, incluindo sempre suspeitar de solicitações de informações pessoais. Pessoas em funções de segurança cibernética devem atualizar suas ferramentas de detecção de ameaças e saber que agentes mal-intencionados podem usar ferramentas como FraudGPT para atingir diretamente e se infiltrar em infraestruturas online.
Mais funcionários estão usando o ChatGPT em seus empregos, mas isso não é necessariamente bom para a segurança cibernética. Os funcionários podem comprometer involuntariamente informações confidenciais da empresa colando-as no ChatGPT. Empresas, incluindo Apple e Samsung, têm
Um estudo descobriu que
Esses medos não são infundados. Um bug do ChatGPT de março de 2023 vazou os detalhes de pagamento de pessoas que usaram a ferramenta
Também podem ocorrer problemas se os funcionários presumirem que qualquer informação obtida do ChatGPT está correta. As pessoas que usam a ferramenta para tarefas de programação e codificação alertaram que
Um artigo de pesquisa de agosto de 2023 da Purdue University confirmou essa afirmação testando o ChatGPT em questões de programação. As conclusões surpreendentes encontradas na ferramenta
Uma coisa crítica a perceber é que os hackers ainda podem causar danos extraordinários sem pagar por produtos como o FraudGPT. Os pesquisadores de segurança cibernética já apontaram que a versão gratuita do ChatGPT permite que eles façam muitas das mesmas coisas. As proteções integradas dessa ferramenta podem dificultar a obtenção imediata dos resultados desejados. No entanto, os criminosos sabem como ser criativos, o que pode incluir a manipulação do ChatGPT para que funcione como eles desejam.
A IA poderia finalmente
Outra possibilidade é que as pessoas baixem o que acreditam ser o aplicativo ChatGPT genuíno e, em vez disso, recebam malware. não demorou muito para
Os hackers geralmente incorporam malware em aplicativos aparentemente legítimos. As pessoas devem esperar que eles também aproveitem a popularidade do ChatGPT dessa forma.
A pesquisa sobre FraudGPT é um lembrete memorável de como os cibercriminosos continuarão mudando suas técnicas para obter o máximo impacto. No entanto, as ferramentas disponíveis gratuitamente também apresentam riscos de segurança cibernética. Qualquer pessoa que use a Internet ou trabalhe para proteger infraestruturas online deve estar a par das novas tecnologias e seus riscos. A chave é usar ferramentas como ChatGPT de forma responsável, mantendo-se ciente do dano potencial.