Apple vai analisar fotos e mensagens em busca de sinais de abuso sexual infantil - TVI

Apple vai analisar fotos e mensagens em busca de sinais de abuso sexual infantil

  • João Guerreiro Rodrigues
  • com Lusa
  • 5 ago 2021, 22:48
Apple

Para já, as novas funções introduzidas pela Apple estarão restritas aos Estados Unidos da América

O gigante tecnológico Apple vai lançar uma série de atualizações de sistema "até ao final do ano" que permitirão aos dispositivos da empresa analisar fotos e mensagens que denunciem sinais de abuso de crianças. 

A empresa afirma que estas novas atualizações do sistema serão introduzidas de maneira a que as comunicações dos utilizadores se mantenham fora do alcance da Apple. Para já, as novas funções introduzidas pela Apple estarão restritas aos Estados Unidos da América.

O objetivo é utilizar um sistema de machine-learning para verificar o conteúdo das mensagens de crianças em busca de fotos que possam parecer sexualmente explícitas. Essa análise será feita pelo próprio telefone, de acordo com a empresa, que garante que não terá acesso a essas comunicações.

Caso uma pessoa receba uma mensagem considerada sexualmente explícita, ela ficará automaticamente desfocada, a criança será avisada de que o conteúdo pode ser sensível e receberá informações adicionais sobre essas mensagens. O utilizador terá, a partir desse momento, a opção de bloquear o contacto.

Caso a criança decida ver a mensagem, ela será informada de que os seus pais serão alertados e que um adulto será notificado. O mesmo vai acontecer no que toca a mensagens consideradas explícitas, afirma a Apple.

A atualização mais controversa é a proposta da Apple de verificar as fotografias guardadas na galeria dos diversos dispositivos em busca de “material de abuso sexual infantil”. A empresa volta sublinhar que este processo será restrito ao dispositivo e que este irá comparar o catálogo fotográfico dos utilizadores com várias bases de dados de imagens de abuso fornecidas por organizações de proteção infantil.

Caso exista um grau suficientemente elevado de semelhança, as imagens tornar-se-ão disponíveis para a empresa, que analisará a imagem “manualmente” para confirmar o cariz das imagens. Caso se trate de “material de abuso sexual infantil”, a conta do utilizador será bloqueada e denunciada às autoridades. 

Matthew Green, da Universidade Johns Hopkins, um dos principais investigadores em criptografia, manifestou-se preocupado com a possibilidade de utilização deste instrumento para controlar pessoas inocentes, enviando-lhes imagens banais, mas desenhadas para parecerem pornografia infantil, enganando o algoritmo da Apple levando ao alerta das forças policiais – essencialmente controlando as pessoas. “Os investigadores têm sido capazes de fazer isso facilmente”, disse.

As empresas tecnológicas, como Microsoft, Google e Facebook, têm partilhado ao longo de anos ‘listas negras’ de imagens conhecidas de abuso sexual de crianças. A Apple tem também estado a inspecionar ficheiros guardados no seu serviço iCloud, que não está tão seguramente encriptado como as suas mensagens, em busca desse tipo de imagens.

A empresa tem estado sob pressão de governos e polícias para autorizar a vigilância de informação encriptada.

Avançar com estas medidas de segurança vai exigir à Apple um equilíbrio delicado entre atacar a exploração das crianças e manter o seu compromisso com a proteção da privacidade dos seus utilizadores.

A Apple acredita que vai conseguir esta compatibilização com a tecnologia que desenvolveu em consulta com vários criptógrafos proeminentes, como Dan Boneh, docente na Universidade de Stanford, cujo trabalho neste campo lhe valeu um Turing Award, muitas vezes considerado a versão do Prémio Nobel na área da tecnologia.

O cientista da computação, que há mais de uma década inventou a PhotoDNA, a tecnologia usada pela polícia para identificar pornografia infantil em linha, reconheceu o potencial para o abuso do sistema da Apple, mas contrapôs que é mais do que compensado pelo imperativo de combater o abuso sexual de crianças.

“É possível? Com certeza. Mas é alguma coisa que me preocupe? Não”, disse Hany Farid, investigador na Universidade da Califórnia, em Berkeley, que argumenta que existem muitos outros programas concebidos para proteger os aparelhos de várias ameaças. Por exemplo, a WhatsApp disponibiliza aos seus utilizadores uma encriptação total para proteger a sua privacidade, mas usa um sistema de deteção de programas maliciosos e avisa os utilizadores para não abrirem ligações suspeitas.

A Apple foi uma das primeiras principais empresas a aderir à encriptação ‘de-ponta-a-ponta’, na qual as mensagens apenas podem ser lidas por quem as envia e quem recebe. Porém, há muito que as polícias pressionam para ceder a essa informação, de forma a investigar crimes como terrorismo ou exploração sexual de crianças.

“O aumento da proteção das crianças pela Apple é uma mudança de jogo”, disse o presidente Centro Nacional para as Crianças Desaparecidas e Abusadas, John Clark, em comunicado. “Com tantas pessoas a usarem os produtos da Apple, estas novas medidas de segurança têm o potencial de salvar vidas de crianças”, acentuou.

A presidente da Thorn, Julia Cordua, considerou que a tecnologia da Apple pondera “a necessidade de privacidade com a segurança digital das crianças”. A Thorn, uma organização sem fins lucrativos, fundada por Demi Moore e Ashton Kutcher, usa a tecnologia para ajudar a proteger as crianças dos abusos sexuais.

Continue a ler esta notícia

EM DESTAQUE