A popularidade do ChatGPT, ferramenta de inteligência artificial, tem crescido de forma exponencial. Inclusive, é possível que você mesmo já tenha usado a ferramenta para responder alguma dúvida ou mesmo ter ideias sobre determinada tarefa que você precisava cumprir.
No caso das empresas, não é diferente. Muitas delas têm recorrido ao uso da inteligência artificial, como o ChatGPT, a fim de buscar respostas e automatização de uma série de demandas. Porém, alguns problemas podem ser desencadeados por esse tipo de comportamento.
Por conta disso, muitas empresas têm proibido o uso da ferramenta, crendo que essa ação preservará a segurança não só dos colaboradores, como também dos clientes e da instituição como um todo.
No entanto, você deve estar se perguntando: afinal, quais são os possíveis riscos que o ChatGPT pode apresentar para uma empresa? A seguir, explicamos com mais detalhe o porquê determinadas instituições têm proibido o uso do chat. Confira!
Por que as empresas estão tomando a decisão de proibir o uso do ChatGPT?
Basicamente, a maior preocupação das empresas com relação ao uso das ferramentas de inteligência artificial estão associadas à possibilidade de que ocorra um vazamento de dados sensíveis.
Isso porque muitos colaboradores têm alimentado a ferramenta com informações tidas como confidenciais sobre os clientes e até mesmo sobre o funcionamento da própria empresa.
Embora, inicialmente, “a conversa” com o chat não seja pública, ainda assim existem os riscos de que determinados dados venham a ser vazados na web caso ocorra algum problema de privacidade, por exemplo.
Uma das empresas que aderiu a essa proibição, devido a problemas relacionados com o vazamento de dados, foi a Samsung. Inclusive, para suprir a demanda de uso desse tipo de ferramenta, a empresa criou a sua própria IA interna para uso dos colaboradores.
Outra empresa que também baniu o uso do ChatGPT no dia a dia dos colaboradores foi a Apple. A justificativa para a restrição é a mesma: o medo de que informações confidenciais e até mesmo sensíveis possam ser vazadas.
Além dessas empresas conhecidas, outras instituições, como hospitais e bancos, têm proibido o uso da ferramenta como forma de manter a segurança de dados e até mesmo a confiabilidade de determinadas atividades.
Afinal, informações da área da saúde, por exemplo, são muito delicadas e exigem conhecimento profundo. Às vezes, a ferramenta pode apresentar ideias errôneas com relação a essa área, resultando em confusões que podem ser perigosas.
A OpenAI introduziu o modo incógnito em abril
Com o propósito de reduzir os problemas relacionados à privacidade, a OpenAI, empresa dona do ChatGPT, introduziu o “modo incógnito” na ferramenta. Isso quer dizer que as conversas realizadas no chat não são salvas pela ferramenta e tampouco usadas para “ensinar” a inteligência artificial. Assim, pode-se reduzir, ao menos um pouco, os riscos de vazamento de informações relevantes.