Akhir-akhir ini kontroversi telah jatuh seperti lempengan atas kantor perusahaan Cupertino, alasannya adalah csam, sebagai pelacakan bahwa perusahaan teknologi melakukan layanan mereka dalam pencarian pornografi anak untuk melindungi calon korban diketahui.
Apple memperingatkan bahwa protokol pelacakan pornografi anak tidak berfungsi di Foto iCloud tetapi telah ada di Mail selama bertahun-tahun. Faktanya, ini adalah praktik yang sudah dilakukan oleh banyak perusahaan lain dan tampaknya tidak menimbulkan masalah selama masa lalu ini, apa yang terjadi dengan protokol CSAM?
Faktanya, Apple telah mengkonfirmasi bahwa mereka telah memindai konten iCloud Mail setidaknya selama tiga tahun untuk mencari pornografi anak dan untuk alasan keamanan, sesuatu yang, misalnya, telah dilakukan Google selama bertahun-tahun di Gmail. Namun, mereka merasa perlu untuk mengklarifikasi bahwa sistem "pemindaian" ini tidak dilakukan (untuk saat ini) pada foto iCloud.
Bagaimanapun, ini "merangkak" Itu tidak mempengaruhi foto-foto yang disimpan dalam memori fisik perangkat kami, tetapi hanya pada mereka yang melalui server iCloud atau dikirim melalui Mail.
Apple menggunakan teknologi pencarian dan analisis gambar untuk menemukan dan melaporkan konten pelecehan anak. Sistem kami menggunakan tanda tangan elektronik canggih.
Namun, ini tidak memberi tahu kita apa pun tentang cara kerja sistem pemindaian Apple, kecuali jika Anda adalah peserta dalam jenis aktivitas kriminal ini, Apa masalahnya dengan algoritme yang mengidentifikasi pornografi anak di server Apple? Sementara itu, kontroversi tetap menjadi topik utama terkait masalah ini yang tampaknya menjadi perhatian besar di Amerika Serikat.