Inteligência Artificial: Relatório aponta que tecnologia tem sido amplamente utilizada por cibercriminosos

Há uma grande discussão em andamento sobre a sua segurança

Um relatório publicado recentemente pela Apura Cyber Intelligence aponta que a tecnologia da Inteligência Artificial tem sido cada vez mais utilizada por cibercriminosos em inúmeras ações na internet. A princípio, esses ataques online de pessoas mal intencionadas tem feito milhares de vítimas em todo o mundo.

Todavia, o levantamento da Apura Cyber Intelligence reuniu informações relacionadas aos principais eventos sobre a cibersegurança globais, durante o primeiro semestre de 2023. Desde o início do ano, a plataforma BTTng da Apura fez o mapeamento sobre diversos ataques em diferentes níveis na internet.

Desse modo, até agora, a plataforma conseguiu identificar mais de 58 mil credenciais de contas do ChatGPT, ferramenta de Inteligência Artificial, sendo comercializadas em sites e fóruns considerados “undergroud”. A tecnologia vem sendo amplamente discutida em todo o mundo, bastante mencionada em 2023.

Analogamente, de acordo com Anchises Moraes, Cyber Threat Intel Lead da Apura, “Assim que várias instâncias de inteligência artificial se tornaram públicas, os criminosos se apressaram em direcionar esse potencial para atividades maliciosas. Isso pode envolver a criação de códigos de malwares de forma mais eficiente”.

Uso da Inteligência Artificial por criminosos

Anchises Moraes também afirma que cibercriminosos podem utilziar as ferramentas de Inteligência Artificial para replicar a identidade de terceiros. Com essa tecnologia, eles podem imitar tanto a aparência, quanto a voz da pessoa. Para o representante da Apura, esse seria um aspecto sombrio, comum atualmente.

Ademais, podemos mencionar o ChatGPT, lançado no final do ano passado, que obteve um grande sucesso, quase instantâneo, visto que a ferramenta conseguiu democratizar o acesso à Inteligência Artificial para um grande público. Houve um aumento expressivo nas discussões sobre os benefícios desse tipo de tecnologia.

Muito tem se falado também sobre os riscos da utilização de ferramentas de Inteligência Artificial e uma grande preocupação relacionada à segurança e à utilização inadequada da nova tecnologia. Alguns eventos merecem destaque, como o vazamento de dados confidenciais por funcionários da Samsung pelo ChatGPT.

Em síntese, essas questões são bastante preocupantes. Logo no início do ano, houveram inúmeros golpes com mensagens de phishing relativas a temas sobre o ChatGPT. Os cibercriminosos tinham como objetivo distribuir malwares. Eles também têm utilizado apps falsos que dizem ser o chatbot, para infectar aparelhos.

Inteligência Artificial
Inteligência Artificial/Fonte: pixabay

Perigo tecnológico

Neste caso, os celulares com sistema operacional Android das vítimas tiveram uma infecção por trojans. Houve então um aumento exponencial nos riscos de infiltração. Para Moraes, os cibercriminosos demonstram que possuem bastante habilidade para explorar a Inteligência Artificial e aplicar golpes com a tecnologia.

Em síntese, os cibercriminosos utilizam as ferramentas de Inteligência Artificial para desenvolverem uma abordagem de phishing bastante realista, e otimizar uma série de códigos maliciosos. O fato é que a ameaça tem aumentado e também inclui deepfakes baseados na tecnologia para recriar réplicas realistas de outras pessoas.

Dessa maneira, os golpistas se fazem passar por terceiros enviando sistemas de autenticação biométrica. No mês de abril inúmeros usuários do ChatGPT tiveram seus dados e informações pessoais expostos devido a uma brecha na segurança do sistema, como nome, e-mail, e os últimos dígitos do cartão de crédito das vítimas.

Relatório da Apura

De acordo com o relatório da Apura, aconteceram outros eventos no mundo virtual que chamaram a atenção. Neste cenário, é possível perceber que os criminosos que utilizam a tecnologia da Inteligência Artificial têm se tornado cada vez mais engenhosos e determinados. Podemos destacar o grupo chamado Clop.

Eles são cibercriminosos que realizaram um ataque a uma cadeia de suprimentos através da vulnerabilidade de ferramentas de Inteligência Artificial como GoAnywhere e MOVEit. São softwares que transferem arquivos. Dessa forma, neste cenário, houve a invasão de inúmeras empresas.

Os cibercriminosos se aproveitaram de um feriado nos Estados Unidos no início do mês de junho, para fazerem seus ataques, utilizando uma vulnerabilidade na ferramenta MOVEit Transfer. Sua ação se deu antes de a correção da falha ser divulgada. Os golpistas, neste caso, exigiram um resgate em dinheiro.

Em conclusão, Moraes afirma que a infeção de sistemas de Inteligência Artificial se dá, muitas vezes, pela engenharia social. As vítimas são levadas a instalarem aplicativos maliciosos em seus dispositivos. Até mesmo o PIX pode ser utilizado através de um vírus específico. Para ele, é preciso investir mais em segurança.

Deixe uma resposta

Seu endereço de email não será publicado.