Akhir-akhir ini kontroversi jatuh seperti paparan di pejabat syarikat Cupertino, alasannya adalah CSAM, diketahui oleh syarikat teknologi yang menjalankan perkhidmatan mereka dalam mencari pornografi kanak-kanak untuk melindungi bakal mangsa.
Apple memberi amaran bahawa protokol penjejakan pornografi anaknya tidak berfungsi dalam Foto iCloud tetapi telah bertahun-tahun berada di Mail. Sebenarnya, ini adalah amalan yang telah dilakukan oleh banyak syarikat lain dan sepertinya tidak menimbulkan sebarang masalah pada masa lalu, apa yang berlaku dengan protokol CSAM?
Sebenarnya, Apple telah mengesahkan bahawa ia telah mengimbas kandungan iCloud Mail selama sekurang-kurangnya tiga tahun untuk mencari pornografi kanak-kanak dan atas alasan keselamatan, sesuatu yang, misalnya, telah dilakukan oleh Google selama bertahun-tahun di Gmail. Namun, mereka merasa pantas untuk menjelaskan bahawa sistem "pengimbasan" ini tidak dijalankan (buat masa ini) pada foto iCloud.
Walau apa pun, "merangkak" ini Ia tidak mempengaruhi foto-foto yang disimpan dalam memori fizikal peranti kami, tetapi hanya pada mereka yang melalui pelayan iCloud atau dihantar melalui Mel.
Apple menggunakan teknologi carian dan analisis gambar untuk mencari dan melaporkan kandungan penderaan kanak-kanak. Sistem kami menggunakan tandatangan elektronik yang maju.
Ini tidak banyak memberitahu kami tentang bagaimana sistem pengimbasan Apple berfungsi, melainkan anda adalah peserta dalam aktiviti jenayah jenis ini, Apa masalahnya dengan algoritma yang mengenal pasti pornografi kanak-kanak di pelayan Apple? Sementara itu, kontroversi terus berlaku sehubungan dengan isu ini yang nampaknya menjadi perhatian besar di Amerika Syarikat.