אפל לא סורקת תמונות עבור פורנוגרפיה של ילדים, אבל מייל כן

לאחרונה המחלוקת נפלה כמו לוח על משרדי חברת קופרטינו, הסיבה היא csam, כידוע המעקב שחברות טכנולוגיה מבצעות משירותיהן בחיפוש אחר פורנוגרפיה של ילדים במטרה להגן על קורבנות פוטנציאליים.

אפל מזהירה כי פרוטוקול המעקב אחר פורנוגרפיה של ילדים אינו פועל בתמונות iCloud אך נמצא בדואר במשך שנים. למעשה, זהו נוהג שחברות רבות אחרות כבר מבצעות ונראה כי לא העלה שלפוחית ​​בתקופה האחרונה, מה קורה עם פרוטוקולי CSAM?

למעשה, אפל אישרה כי היא סורקת את התוכן של iCloud Mail במשך שלוש שנים לפחות בחיפוש אחר פורנוגרפיה של ילדים ומסיבות אבטחה, דבר שגוגל למשל עשתה שנים רבות בג'ימייל. עם זאת, הם ראו לנכון להבהיר כי מערכת ה"סריקה "הזו אינה מתבצעת (כרגע) בתמונות iCloud.

כך או כך, ה"זחילה "הזו זה לא משפיע על הצילומים המאוחסנים בזיכרון הפיזי של המכשיר שלנו, אבל רק באלו שעוברים בשרתי iCloud או נשלחים באמצעות דואר.

אפל משתמשת בטכנולוגיית חיפוש וניתוח תמונות כדי למצוא ולדווח על תוכן שהתעלל בילדים. המערכת שלנו משתמשת בחתימות אלקטרוניות מתקדמות.

זה לא אומר לנו כמעט כלום על אופן פעולתה של מערכת הסריקה של אפל, אלא אם כן אתה משתתף בפעילות פלילית מסוג זה, מה הבעיה עם אלגוריתם לזהות פורנוגרפיה של ילדים בשרתים של אפל? בינתיים, המחלוקת ממשיכה להיות בסדר היום בנוגע לסוגיה זו שנראית מעוררת דאגה רבה בארצות הברית של אמריקה.


עקוב אחרינו בחדשות Google

השאירו את התגובה שלכם

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *

*

*

  1. אחראי על הנתונים: AB Internet Networks 2008 SL
  2. מטרת הנתונים: בקרת ספאם, ניהול תגובות.
  3. לגיטימציה: הסכמתך
  4. מסירת הנתונים: הנתונים לא יועברו לצדדים שלישיים אלא בהתחייבות חוקית.
  5. אחסון נתונים: מסד נתונים המתארח על ידי Occentus Networks (EU)
  6. זכויות: בכל עת תוכל להגביל, לשחזר ולמחוק את המידע שלך.