Bagaimana Sistem Pornografi Anak Baru Apple Bekerja (Dan Bagaimana Tidak Bekerja)

Tutup akun Facebook anak di bawah umur

Apple telah mengumumkan langkah-langkah baru untuk tingkatkan sistem perlindungan anak Anda dan perangi pornografi anak. Kami menjelaskan bagaimana langkah-langkah baru ini bekerja, dan apa yang tidak mereka lakukan.

Apple telah menambahkan Tindakan baru bekerja sama dengan pakar keselamatan anak untuk memerangi penyebaran materi pelecehan seksual terhadap anak. Pengukuran ini dibagi menjadi tiga bagian berbeda: Pesan, Siri, dan Foto. Pesan akan memindai foto yang dikirim dan diterima di perangkat anak di bawah umur, Siri akan memperingatkan pencarian materi ilegal dan Foto akan memberi tahu pihak berwenang jika materi pornografi anak terdeteksi di perangkat kami. Pengoperasian langkah-langkah ini cukup kompleks, terutama jika Anda ingin menjaga privasi pengguna, sebuah tantangan yang menurut Apple telah berhasil diatasi dan akan kami jelaskan di bawah ini.

Tulisan

Di Spanyol tidak terlalu luas, tetapi sistem Pesan Apple banyak digunakan di Amerika Serikat dan di negara lain. Itulah mengapa pengendalian penyebaran materi seksual anak di Pesan sangat penting dan telah menjadi salah satu pilar dari langkah-langkah baru ini. Sistem baru akan memberi tahu anak-anak dan orang tua ketika foto-foto dengan materi seksual eksplisit dikirim atau diterima. Ini hanya akan terjadi pada perangkat untuk anak-anak berusia 12 tahun atau lebih muda., dengan akun kecil Anda terkonfigurasi dengan baik.

Jika anak di bawah umur (12 tahun atau lebih muda) menerima foto yang oleh Apple diklasifikasikan sebagai "eksplisit secara seksual", itu akan diburamkan, dan mereka akan diberi tahu dalam bahasa yang dapat dimengerti oleh anak di bawah umur bahwa gambar tersebut mungkin tidak cocok untuk mereka. Jika Anda memutuskan untuk melihatnya (Anda dapat melihatnya jika Anda memilih) Anda akan diberitahu bahwa orang tua Anda akan diberitahu. Hal yang sama akan terjadi jika anak di bawah umur memutuskan untuk mengirim pesan yang berisi foto seksual.

Proses ini terjadi di dalam iPhone, Apple tidak melakukan intervensi kapan pun. Foto dipindai sebelum dikirim atau diterima di iPhone, dan menggunakan sistem kecerdasan buatan akan diputuskan apakah kontennya berisiko atau tidak. Pemberitahuan, jika terjadi, hanya akan diterima oleh orang tua anak di bawah umur (kami ulangi, 12 tahun atau kurang), baik Apple maupun pihak berwenang tidak akan mengetahui fakta ini.

siri

Asisten virtual Apple juga akan diperbarui untuk memerangi pornografi anak. Jika seseorang melakukan pencarian untuk jenis konten ini, Siri akan memberi tahu mereka bahwa materi tersebut ilegal, dan juga akan menyediakan sumber daya yang mungkin berguna, seperti cara melaporkan jenis konten ini. Sekali lagi seluruh prosedur akan dilakukan di perangkat kami sendiri, baik Apple maupun otoritas terkait tidak akan mengetahui pencarian kami maupun peringatan yang dibuat Siri kepada kami.

foto-foto

Tidak diragukan lagi ini adalah perubahan yang paling penting dan yang paling banyak menimbulkan kontroversi, dengan informasi yang salah tentang cara kerjanya. Apple telah mengumumkan bahwa iCloud akan mendeteksi gambar pornografi anak yang disimpan pengguna di cloud. Jika kami tetap dengan pernyataan ini, banyak keraguan muncul tentang bagaimana hal ini dapat dilakukan sambil menghormati privasi pengguna. Tetapi Apple telah memikirkannya, dan telah merancang sistem yang memungkinkan kami melakukan ini tanpa melanggar privasi kami.

Yang terpenting, meskipun banyak artikel yang telah diterbitkan dengan informasi ini, Apple tidak akan memindai foto Anda untuk konten pornografi anak. Mereka tidak akan mengira Anda sebagai penjahat karena Anda memiliki foto putra atau putri telanjang Anda di bak mandi. Apa yang akan dilakukan Apple adalah melihat apakah Anda memiliki jutaan foto yang terdaftar di CSAM sebagai pornografi anak.

Apa itu CSAM? “Materi Pelecehan Seksual Anak” atau Materi Pelecehan Seksual Anak. Ini adalah katalog foto-foto dengan konten pornografi anak, yang diketahui dan diproduksi oleh badan yang berbeda dan kontennya dikendalikan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC). Masing-masing foto ini memiliki tanda tangan digital, tidak berubah-ubah, dan itulah yang digunakan untuk mengetahui apakah pengguna memiliki foto-foto itu atau tidak.. Ini akan membandingkan tanda tangan foto-foto kami dengan foto-foto CSAM, hanya jika ada kebetulan alarm akan berbunyi.

Jadi Apple tidak akan memindai foto kami untuk melihat apakah kontennya seksual atau tidak, tidak akan menggunakan kecerdasan buatan, bahkan tidak akan melihat foto kami. Ini hanya akan menggunakan tanda tangan digital dari setiap foto dan akan membandingkannya dengan tanda tangan yang disertakan dalam CSAM, dan hanya jika kebetulan itu akan meninjau konten kami. Bagaimana jika salah satu foto saya salah diidentifikasi sebagai konten yang tidak pantas? Apple meyakinkan bahwa ini praktis tidak mungkin, tetapi jika itu terjadi tidak akan ada masalah. Pertama, satu kecocokan saja tidak cukup, harus ada beberapa kecocokan (kami tidak tahu berapa banyak), dan jika jumlah itu terlampaui (hanya jika dilampaui) Apple akan meninjau foto-foto khusus itu untuk menilai apakah itu memang pornografi anak. konten atau tidak sebelum memberi tahu pihak berwenang.

Untuk alasan ini, foto-foto itu perlu disimpan di iCloud, karena prosedur ini terjadi sebagian pada perangkat (perbandingan tanda tangan digital) tetapi jika ada yang positif, tinjauan konten manual dilakukan oleh karyawan Apple dengan meninjau foto di iCloud, karena mereka tidak mengakses perangkat kami dengan cara apa pun.

Keraguan tentang privasi Anda?

Setiap sistem deteksi menimbulkan keraguan tentang keefektifannya dan/atau tentang penghormatan terhadap privasi. Tampaknya agar sistem deteksi benar-benar efektif, privasi pengguna harus dilanggar, tetapi kenyataannya Apple telah merancang sistem yang menjamin privasi kami. Sistem deteksi Pesan dan Siri tidak menimbulkan keraguan, karena itu terjadi di dalam perangkat kami, tanpa Apple memiliki pengetahuan tentang apa pun. Hanya sistem untuk mendeteksi foto di iCloud yang dapat menimbulkan keraguan, tetapi kenyataannya adalah Apple telah sangat berhati-hati untuk terus memastikan bahwa data kami hanya milik kami.

Hanya akan ada satu kasus di mana Apple akan mengakses data kami di iCloud: jika alarm berbunyi oleh beberapa foto kami dan mereka harus meninjaunya untuk melihat apakah itu memang konten ilegal. Kemungkinan ini terjadi karena kesalahan sangat rendah, sangat kecil. Saya pribadi percaya risiko yang sangat tidak mungkin ini layak diambil jika membantu memerangi pornografi anak.

Sebuah pintu belakang untuk mengakses iPhone kami?

Sangat. Apple tidak pernah mengizinkan akses ke data di iPhone kami. Apa yang terjadi di iPhone kami tetap ada di iPhone kami. Satu-satunya titik di mana Anda dapat mengakses data kami adalah ketika kami berbicara tentang foto yang disimpan di iCloud, tidak pernah di iPhone kami. Tidak ada pintu belakang.

Apakah saya masih bisa memiliki foto anak saya?

Tanpa masalah sedikit pun. Saya telah mengulanginya beberapa kali tetapi saya akan mengatakannya sekali lagi: Apple tidak akan memindai foto Anda untuk melihat apakah mereka mengandung konten seksual anak. Jika Anda memiliki foto bayi Anda di bak mandi, tidak masalah karena tidak akan terdeteksi sebagai konten yang tidak pantas. Apa yang akan dilakukan Apple adalah mencari pengenal foto yang sudah dikenal dan dikatalogkan CSAM dan membandingkannya dengan pengenal iPhone Anda, tidak lebih.


Ikuti kami di Google Berita

Jadilah yang pertama mengomentari

tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Bertanggung jawab atas data: AB Internet Networks 2008 SL
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.