A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point Software Technologies, descobriu que os cibercriminosos descobriram novas maneiras de usar o ChatGPT – ferramenta de inteligência artificial disponibilizada de forma gratuita – para ajudar a desenvolver golpes de internet. Eles aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para melhorar o código malicioso de vírus de computador.
LEIA MAIS: ChatGPT: Como a Inteligência Artificial pode gerar riscos a seus usuários
Ciente desse problema, a OpenAI, dona do ChatGPT, atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora, a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.
No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT. Como a equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.
Bots no Telegram
Os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI.
Especificamente, a CPR detectou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético.
Foi verificado que há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição para vendas.
A versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor, aponta a Check Point. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário.
Por que hackers usam o ChatGPT?
O ChatGPT funciona como um chatbot que responde o que os usuários perguntam, desde uma informação até um pedido para criar um texto sobre determinado tema. No entanto, os cibercriminosos estão explorando os vários usos do chatbot para ajudá-los a conduzir mais golpes, como:
- Criar malware. O ChatGPT é capaz de escrever códigos maliciosos. Especificamente, a IA poderia ser usada para escrever malware polimórfico, que é um tipo de programa que evolui constantemente, dificultando a detecção e consequentemente a defesa. Além disso, os criminosos podem recorrer ao ChatGPT para escrever montanhas de códigos maliciosos.
- Perfis de namoro falsos. Catfish, ou pessoas que criam personas online falsas para atrair outras pessoas para relacionamentos, estão começando a usar IA para golpes. Como os criadores de malware, os golpistas em romance agora podem fazer o mesmo para acelerar criações simultâneas de perfis. O ChatGPT é capaz de alterar o tom das mensagens, um suporte para os criminosos. Isso pode resultar em declarações de amor que podem convencer alguém a renunciar informações de identificação pessoal para transferências de dinheiro.
- Phishing. Os phishers, geralmente conhecidos por seus erros de gramática e ortografia, estão melhorando a qualidade de suas mensagens com IA. O ChatGPT também entende comandos de tom, para que os phishers possam aumentar o caráter de urgência nas mensagens, que exigem pagamento imediato ou respostas com senhas.