Num ano de crescimento para o desenvolvimento da Inteligência Artificial, teria sido ingênuo pensar que esses avanços seriam usados apenas para o bem.
Existem, agora, modelos generativos criados para incentivar a cibercriminalidade, no rumo mais sombrio da IA até agora.
Falamos de FraudGPT e WormGPT, que podem ser considerados “gêmeos maliciosos” do ChatGPT, pois são projetados especificamente para facilitar atividades como a criação de e-mails de phishing e páginas web falsas.
Descoberto pela Netenrich em julho de 2023, o FraudGPT é uma ferramenta por assinatura que permite que cibercriminosos gerem emails convincentes de phishing e também falsifiquem páginas da web.
Este modelo é baseado em Inteligência Artificial generativa avançada e é comercializado na Dark Web ou através de canais do Telegram.
Similar ao FraudGPT, encontramos o WormGPT que é derivado do modelo GPT-J, desenvolvido pela EleutherAI em 2021.
Esta ferramenta simplifica a criação de e-mails de phishing e é vendida a preços "mais acessíveis", com planos que variam de 60 euros mensais, enquanto os preços do FraudGPT chegam a 1.700 dólares anuais.
Como o ChatGPT se diferencia?
Os termos e condições do ChatGPT não permitem o uso desta ferramenta para fins maliciosos. Apenas escrever palavras como “phishing” ou “fraude” pode ser considerado uma violação, portanto, não é útil para hackers.
Por outro lado, o FraudGPT e o WormGPT são projetados para produzir resultados maliciosos sem restrições, incluindo a geração de malware indetectável, ferramentas de hacking e emails de golpes em vários idiomas.
O aparecimento dessas ferramentas de IA representa um enorme desafio para a cibersegurança, por isso é preciso estar mais atento do que nunca: Se você receber um e-mail estranho, simplesmente exclua-o. Da mesma forma, se receber links ou mensagens de números desconhecidos. Como dizem popularmente, é melhor prevenir do que remediar.