A carta que pedia uma pausa no desenvolvimento da Inteligência Artificial no mundo está prestes a completar seis meses. Todavia, a organização Future of Life (FLI), apresentou recentemente, um comunicado pedindo a regulamentação do uso da tecnologia e solicitou respostas de empresas que estão na corrida pelo desenvolvimento de ferramentas relacionadas e suas devidas aplicações.
Analogamente, na época da assinatura do manifesto, grandes personalidades como o bilionário Elon Musk, presidente da SpaceX e da Tesla, junto ao historiador Yuval Noah Harari, e o cofundador da Apple, Steve Wozniak, apoiaram a iniciativa. Vale ressaltar que cerca de mil especialistas da área de tecnologia, assinaram a carta.
Ademais, o manifesto apresentado, solicitava uma pausa de seis meses no desenvolvimento de inteligência artificial em todo o mundo. O objetivo principal da iniciativa era a de estabelecer alguns sistemas de segurança através de unidades reguladoras, e de ferramentas e técnicas de vigilância sobre a tecnologia inovadora.
Desse modo, a vigilância de sistemas de inteligência artificial poderia auxiliar na diferenciação entre o que é real e o que é artificial. Seriam estabelecidas instituições que seriam capazes de combater as “dramáticas perturbações econômicas e políticas” relacionadas ao desenvolvimento da nova tecnologia em todo o mundo.
Deve-se observar que o manifesto foi divulgado no mês de março de 2023. De acordo com o FLI, durante esse tempo, houveram inúmeras alterações a respeito da inteligência artificial relativas ao seu uso e desenvolvimento. Durante o ano, um grupo de líderes foi ao senado dos Estados Unidos para discutir o uso da tecnologia.
Em síntese, a União Européia também tem conversado sobre o assunto, e sobre uma maior regulamentação relacionado ao uso da inteligência artificial. Na semana passada, por exemplo, aconteceu o A.I. Insight Forum nos Estados Unidos. Estiveram presentes na reunião um grande número de personalidades.
Participaram do fórum Elon Musk, Sam Altman, CEO da OpenAI, Mark Zuckerberg, CEO da Meta, Sundar Pichai, CEO do Google, Bill Gates, fundador da Microsoft, e Jensen Huang, CEO da Nvidia. Eles conversaram sobre várias questões, incluindo a utilização e os impactos da tecnologia da inteligência artificial em um futuro próximo.
Atualmente, depois de seis meses da assinatura do manifesto, o FLI busca aumentar as discussões sobre o tema, e relacioná-lo ao futuro da tecnologia. As conversas sobre a inteligência artificial também tratam dos impactos que as inovações neste momento e em um futuro próximo recaem sobre a humanidade.
Uma pergunta presente no manifesto assinado há seis meses e que também está em discussão neste momento é se os sistemas de inteligência artificial que estão sendo desenvolvidos poderiam destruir a civilização. Há também um questionamento se as ferramentas poderiam, por exemplo, matar as pessoas.
Em suma, o FLI deseja que as companhias responsáveis pelo desenvolvimento da inteligência artificial respondam a essas questões. A organização também deseja saber se as empresas como o Google, Microsoft, Meta e OpenAi, se responsabilizem pelos danos causados por uma má utilização da tecnologia.
O presidente da FLI, Max Tegmark, diz que “a abordagem dos riscos de segurança da IA avançada deve ser um esforço global. A corrida armamentista em curso arrisca um desastre global e prejudica qualquer chance de concretizar os futuros incríveis possíveis. Uma coordenação eficaz exigirá uma participação significativa”.
Dessa forma, para a FLI, os avanços relativos à discussão são o início de um percurso para que se possa evitar os riscos inerentes sobre a utilização da tecnologia. Para a organização, o manifesto assinado no início do ano não era apenas um aviso dos potenciais perigos inerentes à inteligência artificial.
De fato, a carta assinada pode ser considerada como uma cartilha de recomendações. Em seu texto, estão presentes a exigência de se registrar os recursos computacionais, a criação de um rigoroso processo de auditoria de risco. Também está presente a exigência dos desenvolvedores provarem que a tecnologia é segura.
Em conclusão, o manifesto assinado no início do ano não trata apenas da segurança de ferramentas de inteligência artificial, mas também de que as grandes companhias que desenvolvem esse tipo de tecnologia se responsabilizem. Elas deveriam então provar que os seus sistemas são resolutos, protegidos e íntegros.