L'une des obsessions d'Apple est sécurité de ses utilisateurs. Nous savons tous à quel point l'entreprise se soucie de la confidentialité de ses clients, quelque chose de sacré pour Apple. Bien que pour cela, il doive faire face au gouvernement américain, voire à la CIA. "Les données de mes utilisateurs ne sont pas touchées" est leur devise.
Et maintenant, il s'est concentré sur la sécurité de ses utilisateurs mineurs. Ça fera "Big Brother»Surveillance des images qui transitent par ses serveurs, à la fois lors de l'envoi de messages et de photos stockées dans iCloud, pour détecter les photos contenant du matériel d'abus sexuel d'enfants. Bravo.
Ceux de Cupertino viennent d'annoncer cette semaine une série de mesures qu'ils mettront en œuvre dans le but de protéger les utilisateurs mineurs du iPhone, iPad y Mac. Il s'agit notamment de nouvelles fonctionnalités de sécurité des communications dans Messages, d'une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et d'informations de connaissances mises à jour pour Siri et Search.
Je veux dire, qu'en pensez-vous examiner chaque photo des utilisateurs de moins de 13 ans qui transitent par ses serveurs, que ce soit dans l'émission ou la réception de Messages, ou ceux stockés dans iCloud, pour détecter ceux qui sont suspects de contenu pédopornographique. Une fois que l'image suspecte est automatiquement localisée, elle sera signalée pour être vérifiée par une personne. Il y aura également des contrôles sur les recherches et Siri.
Photos jointes aux messages
Apple explique que lorsqu'un mineur qui se trouve dans un Famille ICloud reçoit ou essaie d'envoyer un message avec des photos à contenu sexuel, l'enfant verra un message d'avertissement. L'image sera floue et l'application Messages affichera un avertissement indiquant que l'image "peut être sensible". Si l'enfant touche "Afficher la photo", il verra un message contextuel l'informant pourquoi l'image est considérée comme sensible.
Si l'enfant insiste pour voir la photo, son père d'iCloud Family recevra un Notification "Pour s'assurer que la visualisation est correcte." La fenêtre contextuelle comprendra également un lien rapide pour une aide supplémentaire.
Dans le cas où l'enfant essaie d'envoyer une image qualifiée de sexuelle, il verra un avertissement similaire. Apple précise que le mineur sera prévenu avant l'envoi de la photo et que les parents pourront recevoir un message si l'enfant décide de l'envoyer. Ce contrôle sera effectué dans les comptes Apple ID qui appartiennent à enfants sous 13 ans.
Photos dans iCloud
Apple veut détecter les images CSAM (Matériel d'abus sexuel d'enfants) lorsqu'il est stocké dans des photos iCloud. L'entreprise sera alors en mesure de signaler un signalement au Centre national pour les enfants disparus et exploités, une entité nord-américaine qui agit en tant qu'agence de signalement complète pour CSAM et travaille en étroite collaboration avec les forces de l'ordre.
Si le système trouve une image CSAM possible, il la signale comme étant vérifié par une personne réelle, avant de prendre des mesures. Une fois confirmé, Apple désactivera le compte de l'utilisateur et soumettra un rapport au Centre national américain pour les enfants disparus et exploités.
Les images qui sont enregistrées sur l'appareil et ne passent pas par les serveurs iCloud, ne peuvent évidemment pas être contrôlées par Apple. Tout ce système de contrôle des enfants il sera d'abord mis en œuvre aux États-Unis., et plus tard, il sera étendu à d'autres pays, à commencer par iOS 15, iPadOS 15 et macOS Monterey.
Recherches et Siri
Siri sera au courant des recherches qu'un utilisateur peut effectuer concernant le Thème CSAM. Par exemple, ceux qui demandent à Siri comment ils peuvent signaler la CSAM ou l'exploitation d'enfants seront dirigés vers les ressources pour savoir où et comment déposer un signalement, facilitant ainsi une éventuelle poursuite.
Des personnalités comme John Clark, président et chef de la direction du Centre national pour les enfants disparus et exploités, Stéphane Balkam, fondateur et PDG du Family Online Safety Institute, ancien procureur général Eric Holder ou l'ancien sous-procureur général Georges Terwilliger Ils ont exprimé leur plein soutien à l'initiative d'Apple.