Como funciona o novo sistema de pornografia infantil da Apple (e como não funciona)

Fechar a conta do Facebook de um menor

A Apple anunciou novas medidas para melhore o seu sistema de proteção infantil e lute contra a pornografia infantil. Explicamos como essas novas medidas funcionam e o que elas não fazem.

A Apple adicionou Novas medidas em colaboração com especialistas em segurança infantil para combater a disseminação de materiais de abuso sexual infantil. Essas medições são divididas em três seções diferentes: Mensagens, Siri e Fotos. As mensagens escanearão as fotos enviadas e recebidas em dispositivos de menores, o Siri avisará sobre a busca por material ilegal e o Fotos notificará as autoridades caso seja detectado material de pornografia infantil em nosso dispositivo. O funcionamento dessas medidas é bastante complexo, principalmente se você deseja manter a privacidade do usuário, um desafio que a Apple acredita ter conseguido superar e que explicaremos a seguir.

Posts

Na Espanha não é muito difundido, mas o sistema Apple Message é amplamente utilizado nos Estados Unidos e em outros países. Por isso, o controle da divulgação de material sexual infantil nas Mensagens é muito importante e tem sido um dos pilares dessas novas medidas. O novo sistema notificará crianças e pais quando fotos com material sexualmente explícito forem enviadas ou recebidas. Isso só ocorrerá em dispositivos para crianças de 12 anos ou menos., com sua conta secundária bem configurada.

Se um menor (12 anos ou menos) receber uma fotografia que a Apple classificou como “sexualmente explícita”, ela ficará desfocada e ele será informado em linguagem compreensível para o menor de que a imagem pode não ser adequada para ele. Se você decidir ver (você pode ver se quiser) você será informado de que seus pais serão notificados. O mesmo acontecerá se o menor decidir enviar uma mensagem que contenha uma fotografia sexual.

Este processo ocorre dentro do iPhone, a Apple não intervém em nenhum momento. A foto é digitalizada antes de ser enviada ou ao ser recebida no iPhone e, por meio de um sistema de inteligência artificial, será decidido se seu conteúdo representa um risco ou não. A notificação, caso ocorra, só será recebida pelos pais do menor (repetimos, 12 anos ou menos), nem a Apple nem as autoridades terão conhecimento deste facto.

Siri

O assistente virtual da Apple também será atualizado para combater a pornografia infantil. Se alguém fizer uma busca por esse tipo de conteúdo, o Siri irá notificá-lo de que o material é ilegal e também fornecerá recursos que podem ser úteis, como formas de denunciar esse tipo de conteúdo. Novamente, todo o procedimento ocorrerá em nosso próprio dispositivo, nem a Apple nem qualquer autoridade pertinente terá conhecimento de nossas pesquisas nem dos avisos que o Siri nos faz.

Fotos

É sem dúvida a mudança mais importante e a que mais gerou polêmica, com desinformação de como vai funcionar. A Apple anunciou que o iCloud detectará imagens de pornografia infantil que os usuários armazenaram na nuvem. Se mantivermos essa afirmação, muitas dúvidas surgirão sobre como isso pode ser feito respeitando a privacidade dos usuários. Mas a Apple pensou sobre isso e desenvolveu um sistema que nos permite fazer isso sem violar nossa privacidade.

Mais importante ainda, e apesar dos muitos artigos publicados com essas informações, a Apple não examinará suas fotos em busca de conteúdo de pornografia infantil. Eles não vão confundi-lo com um criminoso porque você tem fotos de seu filho ou filha nu na banheira. O que a Apple vai fazer é verificar se você tem alguma das milhões de fotos listadas no CSAM como pornografia infantil.

O que é CSAM? "Material de abuso sexual infantil" ou material de abuso sexual infantil. É um catálogo de fotografias com conteúdo de pornografia infantil, conhecido e produzido por diferentes órgãos e cujo conteúdo é controlado pelo Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC). Cada uma dessas fotografias possui uma assinatura digital, invariável, e é exatamente isso que se costuma usar para saber se o usuário possui essas fotografias ou não.. Irá comparar as assinaturas das nossas fotografias com as do CSAM, apenas se houver coincidências o alarme disparará.

Portanto a Apple não vai escanear nossas fotos para ver se o conteúdo é sexual ou não, não vai usar inteligência artificial, não vai nem ver nossas fotos. Só usará as assinaturas digitais de cada fotografia e as comparará com as assinaturas incluídas no CSAM, e somente em caso de coincidência revisará nosso conteúdo. E se uma das minhas fotos for identificada por engano como conteúdo impróprio? A Apple garante que isso é praticamente impossível, mas se acontecesse não haveria problema. Em primeiro lugar, uma correspondência não é suficiente, deve haver várias correspondências (não sabemos quantas) e, se esse número limite for excedido (apenas se for excedido), a Apple revisaria essas fotos específicas para avaliar se são de fato pornografia infantil conteúdo ou não antes de notificar as autoridades.

Por este motivo, é necessário que as fotografias sejam armazenadas no iCloud, pois este procedimento ocorre parcialmente no dispositivo (a comparação das assinaturas digitais) mas caso haja um positivo, a revisão manual do conteúdo é feita por funcionários da Apple revisando fotos no iCloud, uma vez que não acessam nosso dispositivo de forma alguma.

Dúvidas sobre sua privacidade?

Qualquer sistema de detecção levanta dúvidas sobre sua eficácia e / ou sobre o respeito à privacidade. Pode parecer que para um sistema de detecção ser realmente eficaz, a privacidade do usuário deve ser violada, mas a realidade é que a Apple projetou um sistema no qual nossa privacidade é garantida. O sistema de detecção de Mensagens e Siri não levanta dúvidas, pois ocorre dentro do nosso aparelho., sem que a Apple tenha conhecimento de nada. Apenas o sistema de detecção de fotos no iCloud pode levantar dúvidas, mas a realidade é que a Apple tem tomado muito cuidado para continuar a garantir que nossos dados sejam apenas nossos.

Haveria apenas um caso em que a Apple acessaria nossos dados no iCloud: se o alarme disparar por algumas de nossas fotos e eles tiverem que revisá-las para ver se são de fato conteúdo ilegal. A chance de isso acontecer por engano é extraordinariamente baixa, infinitesimal. Pessoalmente, acredito que vale a pena correr esse risco altamente improvável, se ajudar a combater a pornografia infantil.

Uma porta traseira para acessar nosso iPhone?

Em absoluto. A Apple em nenhum momento permite o acesso aos dados em nosso iPhone. O que acontece em nosso iPhone permanece em nosso iPhone. O único ponto onde você pode acessar nossos dados é quando falamos sobre as fotos armazenadas no iCloud, nunca no nosso iPhone. Não há porta dos fundos.

Ainda posso ter fotos dos meus filhos?

Sem o menor problema. Já repeti várias vezes, mas direi mais uma vez: a Apple não examinará suas fotos para ver se contêm conteúdo sexual infantil. Se você tem fotos do seu bebê na banheira, não há problema porque não será detectado como conteúdo impróprio. O que a Apple fará é procurar identificadores de fotografias já conhecidas e CSAM catalogadas e compará-los com os identificadores do seu iPhone, nada mais.


Siga-nos no Google Notícias

Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: AB Internet Networks 2008 SL
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.