Apple vai scanear Iphones em busca de abuso infantil
A Apple está introduzindo novos recursos de segurança infantil em três áreas, desenvolvidos em colaboração com especialistas em segurança infantil. Em primeiro lugar, as novas ferramentas de comunicação permitirão aos pais desempenhar um papel mais informado ajudando seus filhos a navegar na comunicação online. O aplicativo Mensagens usará o aprendizado de máquina no dispositivo para alertar sobre conteúdo confidencial, enquanto mantém as comunicações privadas ilegíveis pela Apple.
Em seguida, iOS e iPadOS usarão novos aplicativos de criptografia para ajudar a limitar a disseminação de CSAM online, enquanto projetam para a privacidade do usuário. A detecção de CSAM ajudará a Apple a fornecer informações valiosas para as autoridades policiais sobre coleções de CSAM no iCloud Photos.
Por fim, as atualizações do Siri e da Pesquisa fornecem aos pais e filhos mais informações e ajuda se eles se depararem com situações inseguras. O Siri e a Pesquisa também intervêm quando os usuários tentam pesquisar tópicos relacionados ao CSAM.
Esses recursos chegarão ainda este ano em atualizações para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. *
Este programa é ambicioso e proteger as crianças é uma responsabilidade importante. Esses esforços irão evoluir e se expandir com o tempo.
Segurança de comunicação em mensagens
O aplicativo Mensagens irá adicionar novas ferramentas para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas.
Ao receber este tipo de conteúdo, a foto ficará desfocada e a criança será avisada, presenteada com recursos úteis e assegurada de que está tudo bem se não quiser ver esta foto.Como precaução adicional, a criança também pode ser informada de que, para ter certeza de que está segura, seus pais receberão uma mensagem se a virem.Proteções semelhantes estão disponíveis se uma criança tentar enviar fotos sexualmente explícitas.A criança será avisada antes do envio da foto e os pais poderão receber uma mensagem se a criança decidir enviá-la.
O Mensagens usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita.O recurso é projetado para que a Apple não tenha acesso às mensagens.
Esse recurso virá em uma atualização no final deste ano para contas configuradas como famílias no iCloud para iOS 15, iPadOS 15 e macOS Monterey.*
Detecção de CSAM
Outra preocupação importante é a disseminação de Material de Abuso Sexual Infantil (CSAM) online. CSAM se refere a conteúdo que retrata atividades sexualmente explícitas envolvendo uma criança.
Para ajudar a resolver isso, uma nova tecnologia em iOS e iPadOS * permitirá que a Apple detecte imagens CSAM conhecidas armazenadas em Fotos do iCloud. Isso permitirá que a Apple relate essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). NCMEC atua como um centro de relatórios abrangente para CSAM e trabalha em colaboração com agências de aplicação da lei nos Estados Unidos.
O método da Apple para detectar um CSAM conhecido foi desenvolvido com a privacidade do usuário em mente. Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC e outras organizações de segurança infantil. A Apple transforma ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários.
Antes de uma imagem ser armazenada no iCloud Photos, um processo de correspondência no dispositivo é executado para essa imagem em relação aos hashes CSAM conhecidos. Esse processo de correspondência é alimentado por uma tecnologia criptográfica chamada interseção de conjuntos privados, que determina se há uma correspondência sem revelar o resultado. O dispositivo cria um voucher de segurança criptográfico que codifica o resultado da correspondência junto com dados criptografados adicionais sobre a imagem. Este voucher é carregado no iCloud Photos junto com a imagem.
Usando outra tecnologia chamada de compartilhamento de segredo de limite, o sistema garante que o conteúdo dos vouchers de segurança não possa ser interpretado pela Apple, a menos que a conta do iCloud Photos ultrapasse um limite de conteúdo CSAM conhecido. O limite é definido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta.
Somente quando o limite é excedido, a tecnologia criptográfica permite que a Apple interprete o conteúdo dos vouchers de segurança associados às imagens CSAM correspondentes. A Apple então analisa manualmente cada relatório para confirmar se há uma correspondência, desativa a conta do usuário e envia um relatório ao NCMEC. Se um usuário achar que sua conta foi sinalizada por engano, ele pode entrar com um recurso para que sua conta seja restabelecida.
Esta nova tecnologia inovadora permite que a Apple forneça informações valiosas e acionáveis ao NCMEC e às autoridades policiais sobre a proliferação de CSAM conhecidos. E faz isso enquanto fornece benefícios de privacidade significativos sobre as técnicas existentes, uma vez que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de CSAM conhecidos em sua conta do iCloud Photos. Mesmo nesses casos, a Apple só aprende sobre as imagens que correspondem ao CSAM conhecido.
Expandindo a orientação no Siri e na Pesquisa
A Apple também está expandindo a orientação no Siri e na Pesquisa, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras.Por exemplo, os usuários que perguntam ao Siri como eles podem relatar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.
O Siri e a Pesquisa também estão sendo atualizados para intervir quando os usuários realizam pesquisas para consultas relacionadas ao CSAM.Essas intervenções irão explicar aos usuários que o interesse neste tópico é prejudicial e problemático e fornecer recursos de parceiros para obter ajuda com esse assunto.
Essas atualizações para Siri e Pesquisa serão lançadas no final deste ano em uma atualização para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.*