ALERTA GERAL acaba de sair e empresas tomam decisão surpreendente sobre o uso do ChatGPT

A popularidade do ChatGPT, ferramenta de inteligência artificial, tem crescido de forma exponencial. Inclusive, é possível que você mesmo já tenha usado a ferramenta para responder alguma dúvida ou mesmo ter ideias sobre determinada tarefa que você precisava cumprir.

No caso das empresas, não é diferente. Muitas delas têm recorrido ao uso da inteligência artificial, como o ChatGPT, a fim de buscar respostas e automatização de uma série de demandas. Porém, alguns problemas podem ser desencadeados por esse tipo de comportamento.

Por conta disso, muitas empresas têm proibido o uso da ferramenta, crendo que essa ação preservará a segurança não só dos colaboradores, como também dos clientes e da instituição como um todo.

No entanto, você deve estar se perguntando: afinal, quais são os possíveis riscos que o ChatGPT pode apresentar para uma empresa? A seguir, explicamos com mais detalhe o porquê determinadas instituições têm proibido o uso do chat. Confira!

proibir o uso do ChatGPT
ALERTA GERAL acaba de sair e empresas tomam decisão surpreendente sobre o uso do ChatGPT. Foto: Reprodução.

Por que as empresas estão tomando a decisão de proibir o uso do ChatGPT?

Basicamente, a maior preocupação das empresas com relação ao uso das ferramentas de inteligência artificial estão associadas à possibilidade de que ocorra um vazamento de dados sensíveis.

Isso porque muitos colaboradores têm alimentado a ferramenta com informações tidas como confidenciais sobre os clientes e até mesmo sobre o funcionamento da própria empresa.

Embora, inicialmente, “a conversa” com o chat não seja pública, ainda assim existem os riscos de que determinados dados venham a ser vazados na web caso ocorra algum problema de privacidade, por exemplo.

Uma das empresas que aderiu a essa proibição, devido a problemas relacionados com o vazamento de dados, foi a Samsung. Inclusive, para suprir a demanda de uso desse tipo de ferramenta, a empresa criou a sua própria IA interna para uso dos colaboradores.

Outra empresa que também baniu o uso do ChatGPT no dia a dia dos colaboradores foi a Apple. A justificativa para a restrição é a mesma: o medo de que informações confidenciais e até mesmo sensíveis possam ser vazadas.

Além dessas empresas conhecidas, outras instituições, como hospitais e bancos, têm proibido o uso da ferramenta como forma de manter a segurança de dados e até mesmo a confiabilidade de determinadas atividades.

Afinal, informações da área da saúde, por exemplo, são muito delicadas e exigem conhecimento profundo. Às vezes, a ferramenta pode apresentar ideias errôneas com relação a essa área, resultando em confusões que podem ser perigosas.

A OpenAI introduziu o modo incógnito em abril

Com o propósito de reduzir os problemas relacionados à privacidade, a OpenAI, empresa dona do ChatGPT, introduziu o “modo incógnito” na ferramenta. Isso quer dizer que as conversas realizadas no chat não são salvas pela ferramenta e tampouco usadas para “ensinar” a inteligência artificial. Assim, pode-se reduzir, ao menos um pouco, os riscos de vazamento de informações relevantes.

Deixe uma resposta

Seu endereço de email não será publicado.