Pular para o conteúdo

Apple pode visualizar fotos pessoais de usuários em busca de abuso infantil

A empresa quer escanear fotos de usuários em busca de evidências de abuso infantil; se encontrado, o algoritmo enviará este arquivo para um funcionário revisar

author ,

loja da apple

Depois de rumores, a Apple confirmou hoje, 5, um software próprio que pode detectar abuso infantil. Em uma nova postagem de blog, a empresa traçou planos para ajudar a conter o material de abuso sexual infantil.

Como parte destes esforços, a Apple incluirá uma nova tecnologia no sistemas operacionais móveis iOS e iPadOS que "detecte imagens de abuso sexual infantil armazenadas em fotos do iCloud". Basicamente, a verificação ocorrerá para todas as mídias armazenadas no iCloud Photos. Se o software apontar que uma imagem é suspeita, esta será enviada para a Apple, que irá descriptografar e visualizar o arquivo. Se descobrir que o conteúdo é, de fato, ilegal, a companhia notificará as autoridades legais responsaveis.

A Apple afirma que há "uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta".

A privacidade do iPhone está chegando ao fim?

Obviamente, a exploração de crianças é um grande problema da sociedade e deve ser enfrentado com muita prioridade. No entanto, a ideia de algum funcionário da Apple vendo fotos de nossos filhos que o software acidentalmente sinalizou como ilegais parece um problema esperando para acontecer.

Também existe a possibilidade de que o software projetado para detectar o abuso infantil pode ser treinado para detectar outras coisas no futuro. Até onde a Apple está disposta a ir para ajudar os governos e as entidades de segurança a capturar criminosos?

Apple
X

Utilizamos cookies para fornecer uma melhor experiência de navegação. Ao usar nosso site, você concorda com os cookies. Mais detalhes: Política de privacidade.