Pular para o conteúdo

Apple adia recurso de segurança que pode detectar abuso sexual infantil

Alguns especialistas em segurança levantaram preocupações sobre esse recurso, argumentando que os governos poderiam usá-lo para acessar os dados de seus cidadãos

author ,

Apple adia recurso de segurança que pode detectar abuso sexual infantil

No início do mês passado, a Apple anunciou alguns novos recursos de segurança infantil para todas as suas plataformas de software. Um dos novos recursos foi projetado para digitalizar fotos de iPhones e iPads em busca de material de abuso sexual infantil. Alguns especialistas em segurança levantaram preocupações sobre esse recurso, argumentando que os governos poderiam usá-lo para acessar os dados de seus cidadãos. Embora a Apple inicialmente alegasse que seu método de detecção de abuso sexual infantil não era uma ameaça à privacidade do usuário, a empresa adiou seu lançamento.

Em um comunicado recente, a Apple disse:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

A Apple planejou anteriormente lançar os novos recursos de segurança infantil como parte das atualizações do iOS 15, iPadOS 15 e macOS Monterey. No entanto, as atualizações não incluirão o novo recurso de segurança infantil quando forem lançadas ainda este ano. No momento, a Apple não compartilhou um cronograma provisório para o lançamento e não forneceu quaisquer detalhes sobre as mudanças que planeja fazer para resolver as questões de privacidade.

Basicamente, este recurso de digitalização de fotos da Apple, no modelo conhecido, compara fotos em seu iPhone ou iPad com um banco de dados de material de abuso infantil fornecido por organizações de segurança infantil. Se detectar qualquer evidência de abuso sexual infantil em um dispositivo, o recurso envia isso a uma equipe de revisores humanos que podem avisar as autoridades policiais após verificar o material. Pesquisadores de segurança argumentam que, embora o algoritmo seja atualmente treinado para detectar abuso sexual infantil, isso poderia ser adaptado para procurar outras imagens ou texto, tornando-se uma ferramenta valiosa para governos autoritários.

Apple
X

Utilizamos cookies para fornecer uma melhor experiência de navegação. Ao usar nosso site, você concorda com os cookies. Mais detalhes: Política de privacidade.