WhatsApp não vai usar solução da Apple para identificar fotos
CEO do app critica função do iPhone que vai reconhecer imagens de abuso infantil no iCloud por considerar um perigo à privacidade
Previsto para setembro, a atualização do sistema iOS para a versão 15 já está dando o que falar. Isso porque traz uma novidade importante, uma função que vai identificar imagens de abuso sexual infantil (CSAM, na sigla em inglês). Isso será utilizado no iCloud de iPhone e iPads, mas o CEO do WhatsApp, Will Cathcart, não gostou nada da ideia.
O executivo postou uma série de tweets onde critica a solução por considerar uma quebra da privacidade, já que ela irá vasculhar todos as fotos. Isso inclui as que não tiverem nada a ver com crianças, claro.
LEIA MAIS:
WhatsApp Web testa novas funções de edição de imagens
iPhone com iOS 15 poderá ser rastreado até se for resetado em roubo
Na primeira publicação, ele deixa claro suas preocupações com a segurança da privacidade dos usuários de iPhone e afirma que o WhatsApp não vai usar uma função como essa. Ele concorda sobre a necessidade de impedir a disseminação de CSAM e capturar os criminosos que compartilham, mas o meio que a Apple escolheu é preocupante.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
People have asked if we'll adopt this system for WhatsApp. The answer is no.
— Will Cathcart (@wcathcart) August 6, 2021
“Em vez de se concentrar em tornar mais fácil para as pessoas reportarem o conteúdo compartilhado com elas, a Apple desenvolveu um software que pode escanear todas as fotos privadas do seu telefone – até mesmo fotos que você não compartilhou com ninguém. Isso não é privacidade”, afirmou Cathcart em seu Twitter.
Vigilância de governos?
A preocupação do CEO do WhatsApp não para por aí. Ele afirma até que a ferramenta poderia ser utilizada pela Apple ou por governos para obter informações privadas de seus cidadãos. “Os países onde os iPhones são vendidos têm definições diferentes sobre o que é aceitável”, continuou.
Cathcart ainda lembrou que nunca houve nenhum tipo de mandato global que obrigasse o escaneamento dos arquivos privados de todos os computadores ou celulares do mundo em busca de quem tivesse conteúdo ilegal. “Não é assim que a tecnologia funciona em países livres”, declarou.
O executivo usou a China como comparação e questionou se o sistema seria usado por lá. “Que conteúdo eles considerarão ilegal lá e como saberemos? Como eles gerenciarão as solicitações de governos em todo o mundo para adicionar outros tipos de conteúdo à lista para escaneamento?”
Outro problema seria se o sistema tiver brechas para ataques de cibercriminosos. Cathcart adverte que há pesquisas apontando que há falhas no iOS e pergunta o que aconteceria se os hackers as utilizassem para acessar a nova função do iCloud.
Cathcart termina seus posts sobre o assunto lembrando palavras da própria Apple, em uma época em que a empresa se recusou a criar uma brecha em seu sistema para ajudar a polícia norte-americana a invadir iPhones de criminosos.
“Seria errado o governo nos forçar a construir uma vulnerabilidade para nossos produtos. E, em última análise, tememos que essa demanda minaria as próprias liberdades e liberdades que nosso governo deve proteger”, disse um comunicado da Apple de 2016. “Essas palavras foram sábias na época, e vale a pena prestar atenção aqui agora”, concluiu.
Como funciona o sistema da Apple
Anunciada recentemente como uma nova função das futuras atualizações de seus dispositivos, o escaneamento de CSAM é seguro, segundo a Apple. Em uma postagem em seu blog, a fabricante afirma que a tecnologia estará disponível para iPhones e iPads norte-americanos e que vai detectar imagens de abuso infantil que forem armazenadas no iCloud Photos. Dessa forma, ela não terá acesso aos arquivos na memória interna dos aparelhos.
A empresa utilizará inteligência artificial para identificar o conteúdo sensível, junto com um programa criptografado para comparar com um banco de dados CSAM. Caso o sistema encontre algum material de abuso infantil, a Apple irá reportar diretamente ao Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos (NCMEC).
A Apple defende que a função foi feita com a privacidade do usuário em mente. Essa é apenas uma de três novas funções que a empresa está desenvolvendo para proteger crianças. As outras duas são:
- O aplicativo Messages vai usar aprendizado de máquina no dispositivo de crianças para alertar os pais sobre o recebimento de conteúdo sexual. As comunicações privadas serão ilegíveis para a Apple, mas imagens pornográficas serão automaticamente borradas e a criança será aconselhada a enviar uma mensagem ao celular dos pais avisando sobre isso. O mesmo acontecerá se uma criança tentar enviar uma foto com conteúdo sexual.
- As atualizações da Siri e da Pesquisa fornecem aos pais e filhos mais informações e ajuda se eles se depararem com situações inseguras. O Siri e a Pesquisa também intervêm quando os usuários tentam pesquisar tópicos relacionados ao CSAM.