Depois de rumores, a Apple confirmou hoje, 5, um software próprio que pode detectar abuso infantil. Em uma nova postagem de blog, a empresa traçou planos para ajudar a conter o material de abuso sexual infantil.
Como parte destes esforços, a Apple incluirá uma nova tecnologia no sistemas operacionais móveis iOS e iPadOS que "detecte imagens de abuso sexual infantil armazenadas em fotos do iCloud". Basicamente, a verificação ocorrerá para todas as mídias armazenadas no iCloud Photos. Se o software apontar que uma imagem é suspeita, esta será enviada para a Apple, que irá descriptografar e visualizar o arquivo. Se descobrir que o conteúdo é, de fato, ilegal, a companhia notificará as autoridades legais responsaveis.
A Apple afirma que há "uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta".
A privacidade do iPhone está chegando ao fim?
Obviamente, a exploração de crianças é um grande problema da sociedade e deve ser enfrentado com muita prioridade. No entanto, a ideia de algum funcionário da Apple vendo fotos de nossos filhos que o software acidentalmente sinalizou como ilegais parece um problema esperando para acontecer.
Também existe a possibilidade de que o software projetado para detectar o abuso infantil pode ser treinado para detectar outras coisas no futuro. Até onde a Apple está disposta a ir para ajudar os governos e as entidades de segurança a capturar criminosos?