A tecnologia utilizada no ChatGPT pode encantar seus usuários, porém, é preciso observar alguns riscos envolvendo a Inteligência Artificial (IA). Os problemas relacionados podem ser de médio e longo prazo, principalmente se a ferramenta for mal utilizada, gerando inúmeras ameaças a quem usa o chatbot.
O ChatGPT foi lançado em 30 de novembro de 2022, pela startup de São Francisco nos Estados Unidos, OpenAI. Desde então, a tecnologia de IA tem deixado os usuários perplexos em todo o mundo. Muitos deles, é preciso observar, estão com medo do que pode acontecer no caso dela cair em mãos erradas.
A grande utilidade desse tipo de tecnologia, é que ela permite aos usuários, fazer perguntas e ter elas respondidas gerando textos diversos a quem utiliza a IA. É preciso observar que o ChatGPT pode gerar informações incorretas, instruções prejudiciais, e conteúdo tendencioso, ou seja, ela não é imparcial.
A IA utiliza Processamento de Linguagem Natural (PLN) para gerar conversas entre ela e seus usuários. Eles podem fazer perguntas ou até mesmo contar histórias e o bot irá respondê-las de maneira relevante, simulando uma conversa humana. No entanto, a tecnologia pode apresentar alguns riscos, que veremos a seguir:
1 – Informações erradas para seus usuários
O usuário que utilizar o ChatGPT pode achar que as informações recebidas são 100% verdadeiras. Ele pode persuadir a pessoa mesmo com dados incertos, ou seja, não se sabe ainda se a tecnologia poderá prover, para quem as utilizar, de obter conteúdos precisos e corretos. A ferramenta tem um alto poder de persuasão.
Todavia, como as pessoas confiam em uma tecnologia de ponta, é provável que quem utilize o chatbot ache que está tendo em suas mãos informações corretas, em primeira mão. Vale ressaltar que o próprio ChatGPT, quando questionado, informa a seus usuários que pode cometer alguns erros.
2 – Identificação de plágio no ChatGPT
Analogamente, outro risco que a tecnologia baseada em IA pode gerar, é a dificuldade de se identificar o plágio, envolvendo as informações disponibilizadas. Além disso, uma pessoa pode copiar um texto com outras palavras, utilizando o ChatGPT, sem dar crédito a quem realmente escreveu.
E se pesquisadores e acadêmicos utilizarem mal a tecnologia, como se fosse um estudante copiando o conteúdo de um trabalho? Saber se um texto é plágio não é uma tarefa fácil. No entanto, atualmente é possível reconhecer facilmente quando um determinado texto é escrito através do chatbot.
3 – Divulgação de desinformação
A divulgação de desinformação é uma preocupação dos riscos inerentes na utilização da tecnologia de IA. De fato, o ChatGPT irá disseminar informações que podem ser ou não inverídicas. É preciso observar que o chatbot ainda está em seu início, portanto, pode haver alguns erros enquanto ele não evolui.
Outra questão importante a ser analisada, é que o ChatGPT utiliza informações diretamente da internet, ou seja, seu banco de dados é a web. Isso quer dizer que nem sempre será possível a IA ter uma resposta correta para tudo. Os testes realizados com a tecnologia provaram que isso é um fato.
4 – Risco de Phishing
O Phishing é uma técnica que utiliza a tecnologia para enganar seus usuários, roubando informações confidenciais, como nome, senhas e número do cartão de crédito. É preciso observar que esta estratégia de fraude é bastante comum tanto para quem recebe SMS quanto para quem utiliza redes sociais.
Analogamente, há um risco inerente de que o Phishing seja utilizado no ChatGPT, auxiliando pessoas mal intencionadas a escrever mensagens realistas e sem erros. A tecnologia pode acabar fazendo com que o usuário acredite nestas mensagens e ter suas informações e dados pessoais roubados, que serão utilizados em golpes.
5 – Códigos maliciosos
Em síntese, o ChatGPT pode criar códigos de programação. Isso quer dizer que cibercriminosos podem criar malwares, vírus e programas maliciosos, por exemplo. Neste caso a IA acaba auxiliando na criação de softwares com o intuito de lesar usuários a partir do chatbot.
A tecnologia, neste caso, é capaz de facilitar o trabalho de hackers, gerando linhas de códigos mais simples, ou seja, o programador terá uma maior facilidade em criar vírus que ataquem pessoas, empresas e instituições governamentais, portanto, é mais um risco na utilização da IA.