ระยะหลังๆ นี้ เกิดการโต้เถียงกันอย่างท่วมท้นถึงสำนักงานของบริษัท Cupertino เหตุผลก็คือ ซีเอสเอเอ็ม, เป็นที่ทราบกันดีว่าการติดตามว่าบริษัทเทคโนโลยีดำเนินการบริการของตนเพื่อค้นหาภาพอนาจารเด็กเพื่อปกป้องผู้ที่อาจตกเป็นเหยื่อ
Apple เตือนว่าโปรโตคอลการติดตามภาพอนาจารของเด็กไม่ทำงานใน iCloud Photos แต่อยู่ใน Mail มาหลายปีแล้ว อันที่จริง มันเป็นแนวปฏิบัติที่บริษัทอื่นหลายแห่งได้ดำเนินการไปแล้ว และดูเหมือนว่าจะไม่มีตุ่มพุพองใดๆ ในช่วงเวลาที่ผ่านมานี้ เกิดอะไรขึ้นกับโปรโตคอล CSAM?
อันที่จริง Apple ยืนยันว่าได้สแกนเนื้อหาของเมล iCloud มาอย่างน้อยสามปีเพื่อค้นหาภาพอนาจารของเด็กและด้วยเหตุผลด้านความปลอดภัย เช่น Google ทำมาหลายปีใน Gmail อย่างไรก็ตาม พวกเขาเห็นสมควรที่จะชี้แจงว่าระบบ "การสแกน" นี้ไม่ได้ดำเนินการ (สำหรับตอนนี้) บนรูปภาพ iCloud
ไม่ว่าจะด้วยวิธีใด "การรวบรวมข้อมูล" นี้ ไม่ส่งผลต่อภาพถ่ายที่เก็บไว้ในหน่วยความจำกายภาพของอุปกรณ์ของเรา แต่เฉพาะในเซิร์ฟเวอร์ที่ผ่านเซิร์ฟเวอร์ iCloud หรือส่งผ่านเมลเท่านั้น
Apple ใช้เทคโนโลยีการค้นหาและวิเคราะห์รูปภาพเพื่อค้นหาและรายงานเนื้อหาเกี่ยวกับการล่วงละเมิดเด็ก ระบบของเราใช้ลายเซ็นอิเล็กทรอนิกส์ขั้นสูง
สิ่งนี้บอกเราเพียงเล็กน้อยถึงไม่มีอะไรเกี่ยวกับการทำงานของระบบการสแกนของ Apple อย่างไรก็ตาม เว้นแต่คุณจะมีส่วนร่วมในกิจกรรมอาชญากรรมประเภทนี้ อะไรคือปัญหาของอัลกอริทึมที่ระบุภาพอนาจารของเด็กบนเซิร์ฟเวอร์ของ Apple? ในขณะเดียวกัน การโต้เถียงยังคงเป็นลำดับของวันนี้เกี่ยวกับปัญหานี้ซึ่งดูเหมือนว่าจะก่อให้เกิดความกังวลอย่างมากในสหรัฐอเมริกา