Estudo aponta que Inteligência Artificial ainda está longe de ser transparente (Entenda!)
Tecnologia apresenta tanto benefícios quanto riscos
Um estudo da Universidade de Stanford, publicado na quarta-feira (18/10), apontou que os modelos de Inteligência Artificial (IA) que acabaram por se proliferar desde que o ChatGPT foi lançado em 2022, necessitam de uma maior transparência. Todavia, eles representam um risco para os aplicativos que utilizam a tecnologia.
A princípio, pesquisadores da universidade do estado da Califórnia, projetaram um novo índice e cálculos. Eles dizem que o modelo de Inteligência Artificial que apresentou a maior transparência foi o Llama 2. Ele é um sistema criado pela Meta, empresa de Mark Zuckerberg, dona do Whatsapp, Facebook, e Instagram.
Desse modo, mesmo que o Llama 2 seja o robô de Inteligência Artificial mais transparente, de acordo com o estudo, ele apresentou uma pontuação de apenas 54%, que, segundo os pesquisadores, é insuficiente. O modelo de linguagem GPT-4. da Open AI, empresa desenvolvedora do famoso ChatGPT, obteve 48%.
Analogamente, o estudo apresentou outros modelos de Inteligência Artificial que ficaram abaixo das expectativas, no quesito transparência. Neste sentido, podemos destacar o Palm-2 do Google, e o Claude 2 da empresa Anthropic que é financiada pela Amazon. Todas elas apresentaram problemas relativos a essa característica.
Dados sobre a Inteligência Artificial
Ademais, em relação a chamado modelos de “fundação”, o diretor de pesquisa da Universidade de Stanford, Rishi Bommasani, afirma que esses modelos de Inteligência Artificial devem apresentar entre 80% e 100% de transparência. Um problema nesta característica pode dificultar o desenvolvimento de aplicativos.
Em síntese, para Rishi Bommasani, a falta de transparência nestes modelos de Inteligência Artificial tornaria muito mais difícil para as organizações empresariais, “saberem se podem criar aplicativos seguros baseados nestes modelos de negócio. E para os acadêmicos confiarem nestes modelos para as suas pesquisas”.
O diretor de pesquisa da universidade californiana também explica que a falta de transparência dos modelos de Inteligência Artificial também dificultaria a tarefa dos usuários e consumidores desse tipo de tecnologia. Eles procuram compreender os seus limites, ou mesmo pedir uma indenização devido a possíveis danos sofridos.
Em suma, sobre as dificuldades envolvendo a nova tecnologia e suas ferramentas inovadoras de Inteligência Artificial, Rishi Bommasani aponta que, “a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático”.
Empresas de tecnologia
Para o pesquisador da Universidade de Stanford, nenhuma organização empresarial apresenta dados e informações a respeito de números e usuários que dependem de seus modelos de Inteligência Artificial. Elas também não lançam as estatísticas relacionadas a seus países, ou mesmo os mercados que utilizam de sua tecnologia.
Dessa maneira, de acordo com os autores do estudo, o índice de transparência das ferramentas baseadas neste tipo de tecnologia poderiam ser utilizados por autoridades políticas e reguladoras, em um futuro próximo. Podemos destacar a União Européia, os Estados Unidos e a China que desejam uma maior transparência.
O presidente dos Estados Unidos fez uma declaração recente sobre os benefícios e perigos da nova tecnologia. Ele afirmou que “a Inteligência Artificial é uma grande promessa de oportunidades incríveis. Mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional”.
Enfim, houve uma discussão sobre a maior transparência dos modelos de Inteligência Artificial durante a Reunião do G7 no Japão no mês de maio deste ano. Dessa forma, o Reino Unido está neste momento se preparando para receber uma cúpula internacional sobre a nova tecnologia no mês de novembro de 2023.
Inteligência Artificial no Brasil
Na última terça-feira (17/10) houve um debate na Comissão Temporária sobre a Inteligência Artificial no Brasil (CTIA) no Senado. Especialistas em tecnologia falaram sobre a criação de uma legislação sobre o tema e regras claras. Eles dizem que é preciso evitar que haja obstáculos para os investimentos necessários para o setor.
Em conclusão, eles discutiram o relatório final da comissão de juristas que subsidiou a criação de substitutivos sobre a Inteligência Artificial no Brasil. Eles estão analisando um Projeto de Lei que regulamenta o uso de Inteligência Artificial. Ela é de autoria do Senador Rodrigo Pacheco (PSD), atual presidente do Senado Federal.
Comentários estão fechados.