Τον τελευταίο καιρό η διαμάχη έχει πέσει σαν πλάκα στα γραφεία της εταιρείας Cupertino, ο λόγος είναι ο csam, καθώς είναι γνωστή η παρακολούθηση που πραγματοποιούν οι εταιρείες τεχνολογίας στις υπηρεσίες τους για την αναζήτηση παιδικής πορνογραφίας προκειμένου να προστατεύσουν πιθανά θύματα.
Η Apple προειδοποιεί ότι το πρωτόκολλο παρακολούθησης παιδικής πορνογραφίας δεν λειτουργεί στο iCloud Photos αλλά βρίσκεται στο Mail για χρόνια. Στην πραγματικότητα, είναι μια πρακτική που εφαρμόζουν ήδη πολλές άλλες εταιρείες και δεν φαίνεται να έχει δημιουργήσει φουσκάλες κατά τους προηγούμενους καιρούς, τι συμβαίνει με τα πρωτόκολλα CSAM;
Στην πραγματικότητα, η Apple επιβεβαίωσε ότι σαρώνει το περιεχόμενο του iCloud Mail για τουλάχιστον τρία χρόνια σε αναζήτηση παιδικής πορνογραφίας και για λόγους ασφαλείας, κάτι που, για παράδειγμα, η Google έχει κάνει εδώ και πολλά χρόνια στο Gmail. Ωστόσο, θεώρησαν σκόπιμο να διευκρινίσουν ότι αυτό το σύστημα "σάρωσης" δεν πραγματοποιείται (προς το παρόν) σε φωτογραφίες iCloud.
Όπως και να έχει, αυτό το "σέρνεται" Δεν επηρεάζει τις φωτογραφίες που είναι αποθηκευμένες στη φυσική μνήμη της συσκευής μας, αλλά μόνο σε εκείνους που περνούν από τους διακομιστές iCloud ή αποστέλλονται μέσω αλληλογραφίας.
Η Apple χρησιμοποιεί ανάλυση εικόνας και τεχνολογία αναζήτησης για να βρει και να αναφέρει περιεχόμενο κακοποίησης παιδιών. Το σύστημά μας χρησιμοποιεί προηγμένες ηλεκτρονικές υπογραφές.
Ωστόσο, αυτό δεν μας λέει σχεδόν τίποτα για το πώς λειτουργεί το σύστημα σάρωσης της Apple, εκτός εάν συμμετέχετε σε αυτόν τον τύπο εγκληματικής δραστηριότητας, Ποιο είναι το πρόβλημα με έναν αλγόριθμο που προσδιορίζει την παιδική πορνογραφία στους διακομιστές της Apple; Εν τω μεταξύ, η διαμάχη εξακολουθεί να είναι η ημερήσια διάταξη σχετικά με αυτό το ζήτημα που φαίνεται να προκαλεί μεγάλη ανησυχία στις Ηνωμένες Πολιτείες της Αμερικής.