לאחרונה המחלוקת נפלה כמו לוח על משרדי חברת קופרטינו, הסיבה היא csam, כידוע המעקב שחברות טכנולוגיה מבצעות משירותיהן בחיפוש אחר פורנוגרפיה של ילדים במטרה להגן על קורבנות פוטנציאליים.
אפל מזהירה כי פרוטוקול המעקב אחר פורנוגרפיה של ילדים אינו פועל בתמונות iCloud אך נמצא בדואר במשך שנים. למעשה, זהו נוהג שחברות רבות אחרות כבר מבצעות ונראה כי לא העלה שלפוחית בתקופה האחרונה, מה קורה עם פרוטוקולי CSAM?
למעשה, אפל אישרה כי היא סורקת את התוכן של iCloud Mail במשך שלוש שנים לפחות בחיפוש אחר פורנוגרפיה של ילדים ומסיבות אבטחה, דבר שגוגל למשל עשתה שנים רבות בג'ימייל. עם זאת, הם ראו לנכון להבהיר כי מערכת ה"סריקה "הזו אינה מתבצעת (כרגע) בתמונות iCloud.
כך או כך, ה"זחילה "הזו זה לא משפיע על הצילומים המאוחסנים בזיכרון הפיזי של המכשיר שלנו, אבל רק באלו שעוברים בשרתי iCloud או נשלחים באמצעות דואר.
אפל משתמשת בטכנולוגיית חיפוש וניתוח תמונות כדי למצוא ולדווח על תוכן שהתעלל בילדים. המערכת שלנו משתמשת בחתימות אלקטרוניות מתקדמות.
זה לא אומר לנו כמעט כלום על אופן פעולתה של מערכת הסריקה של אפל, אלא אם כן אתה משתתף בפעילות פלילית מסוג זה, מה הבעיה עם אלגוריתם לזהות פורנוגרפיה של ילדים בשרתים של אפל? בינתיים, המחלוקת ממשיכה להיות בסדר היום בנוגע לסוגיה זו שנראית מעוררת דאגה רבה בארצות הברית של אמריקה.