Apple minggu lalu mengumumkan sistem pengesanan baru untuk CSAM (Bahan Penderaan Seksual Kanak-kanak) di iCloud, ukuran yang dilihat oleh banyak pengguna sebagai pengakhiran privasi yang biasa kami gunakan oleh Apple. Sekiranya anda mempunyai pertanyaan mengenai pengoperasiannya, anda boleh melayari pautan ini di mana kami menerangkan apakah sistem ini dan bagaimana ia benar-benar berfungsi.
Walaupun kontroversi mengenai sistem ini berlanjutan, dan beberapa persatuan hak mengundang Apple untuk tidak melaksanakannya, seorang doktor San Francisco Bay telah dituduh mempunyai pornografi kanak-kanak di akaun Apple iCloud anda.
Jabatan Kehakiman Amerika Syarikat pada Khamis mengumumkan bahawa Andrew Mollick yang berusia 58 tahun mempunyai sekurang-kurangnya 2.000 gambar dan video eksploitasi seksual kanak-kanak. disimpan dalam akaun iCloud anda. Andrew Mollick adalah Pakar Onkologi yang berafiliasi dengan beberapa Pusat Perubatan Kawasan San Francisco Bay dan juga Profesor Madya di UCSF School of Medicine.
Tahanan memuat naik salah satu gambar tersebut ke aplikasi media sosial Kik, ketika itulah polis persekutuan menjalankannya siasatan untuk menemuinya. Pada masa itu, ketika the feds menemui semua kandungan yang dia simpan di iCloud.
Apple terus berjalan walaupun terdapat kontroversi
Apple baru-baru ini mengumumkan rancangan untuk memperkenalkan sistem yang dirancang untuk mengesan bahan penderaan seksual kanak-kanak di iCloud dan memberikan laporan kepada Pusat Kebangsaan Kanak-kanak Hilang dan Eksploitasi (NCMEC).
Sistem ini tidak mengimbas gambar dari akaun iCloud pengguna. Sebaliknya, ia memeriksa hash (pengecam) gambar yang disimpan di iCloud berbanding hash CSAM yang diketahui yang disediakan oleh organisasi keselamatan kanak-kanak. .
Walaupun terdapat reaksi balas, Apple meneruskan rancangannya untuk memulakan sistem pengesanan CSAM. Mengekalkan bahawa platform akan terus menjaga privasi pengguna yang tidak mempunyai koleksi CSAM dalam akaun iCloud mereka.