Apple annonce de nouvelles protections pour les utilisateurs mineurs

La sécurité des enfants

L'une des obsessions d'Apple est sécurité de ses utilisateurs. Nous savons tous à quel point l'entreprise se soucie de la confidentialité de ses clients, quelque chose de sacré pour Apple. Bien que pour cela, il doive faire face au gouvernement américain, voire à la CIA. "Les données de mes utilisateurs ne sont pas touchées" est leur devise.

Et maintenant, il s'est concentré sur la sécurité de ses utilisateurs mineurs. Ça fera "Big Brother»Surveillance des images qui transitent par ses serveurs, à la fois lors de l'envoi de messages et de photos stockées dans iCloud, pour détecter les photos contenant du matériel d'abus sexuel d'enfants. Bravo.

Ceux de Cupertino viennent d'annoncer cette semaine une série de mesures qu'ils mettront en œuvre dans le but de protéger les utilisateurs mineurs du iPhone, iPad y Mac. Il s'agit notamment de nouvelles fonctionnalités de sécurité des communications dans Messages, d'une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et d'informations de connaissances mises à jour pour Siri et Search.

Je veux dire, qu'en pensez-vous examiner chaque photo des utilisateurs de moins de 13 ans qui transitent par ses serveurs, que ce soit dans l'émission ou la réception de Messages, ou ceux stockés dans iCloud, pour détecter ceux qui sont suspects de contenu pédopornographique. Une fois que l'image suspecte est automatiquement localisée, elle sera signalée pour être vérifiée par une personne. Il y aura également des contrôles sur les recherches et Siri.

Photos jointes aux messages

Apple explique que lorsqu'un mineur qui se trouve dans un Famille ICloud reçoit ou essaie d'envoyer un message avec des photos à contenu sexuel, l'enfant verra un message d'avertissement. L'image sera floue et l'application Messages affichera un avertissement indiquant que l'image "peut être sensible". Si l'enfant touche "Afficher la photo", il verra un message contextuel l'informant pourquoi l'image est considérée comme sensible.

Si l'enfant insiste pour voir la photo, son père d'iCloud Family recevra un Notification "Pour s'assurer que la visualisation est correcte." La fenêtre contextuelle comprendra également un lien rapide pour une aide supplémentaire.

Dans le cas où l'enfant essaie d'envoyer une image qualifiée de sexuelle, il verra un avertissement similaire. Apple précise que le mineur sera prévenu avant l'envoi de la photo et que les parents pourront recevoir un message si l'enfant décide de l'envoyer. Ce contrôle sera effectué dans les comptes Apple ID qui appartiennent à enfants sous 13 ans.

Photos dans iCloud

CASS

C'est ainsi qu'Apple traitera les photos d'un enfant de moins de 13 ans.

Apple veut détecter les images CSAM (Matériel d'abus sexuel d'enfants) lorsqu'il est stocké dans des photos iCloud. L'entreprise sera alors en mesure de signaler un signalement au Centre national pour les enfants disparus et exploités, une entité nord-américaine qui agit en tant qu'agence de signalement complète pour CSAM et travaille en étroite collaboration avec les forces de l'ordre.

Si le système trouve une image CSAM possible, il la signale comme étant vérifié par une personne réelle, avant de prendre des mesures. Une fois confirmé, Apple désactivera le compte de l'utilisateur et soumettra un rapport au Centre national américain pour les enfants disparus et exploités.

Les images qui sont enregistrées sur l'appareil et ne passent pas par les serveurs iCloud, ne peuvent évidemment pas être contrôlées par Apple. Tout ce système de contrôle des enfants il sera d'abord mis en œuvre aux États-Unis., et plus tard, il sera étendu à d'autres pays, à commencer par iOS 15, iPadOS 15 et macOS Monterey.

Recherches et Siri

Siri sera au courant des recherches qu'un utilisateur peut effectuer concernant le Thème CSAM. Par exemple, ceux qui demandent à Siri comment ils peuvent signaler la CSAM ou l'exploitation d'enfants seront dirigés vers les ressources pour savoir où et comment déposer un signalement, facilitant ainsi une éventuelle poursuite.

Des personnalités comme John Clark, président et chef de la direction du Centre national pour les enfants disparus et exploités, Stéphane Balkam, fondateur et PDG du Family Online Safety Institute, ancien procureur général Eric Holder ou l'ancien sous-procureur général Georges Terwilliger Ils ont exprimé leur plein soutien à l'initiative d'Apple.


Ça t'intéresse:
Comment faire une nouvelle installation d'iOS 15 sur votre iPhone ou iPad
Suivez-nous sur Google Actualités

Soyez le premier à commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données : AB Internet Networks 2008 SL
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.