Apple'ın Yeni Çocuk Pornografisi Sistemi Nasıl Çalışıyor (Ve Nasıl Çalışmıyor)

Bir reşit olmayanın Facebook hesabını kapatın

Apple yeni önlemler açıkladı çocuk koruma sisteminizi geliştirin ve çocuk pornografisine karşı savaşın. Bu yeni önlemlerin nasıl çalıştığını ve ne yapmadıklarını açıklıyoruz.

Apple ekledi Yeni önlemler çocuk cinsel istismarı materyallerinin yayılmasıyla mücadele etmek için çocuk güvenliği uzmanlarıyla işbirliği içinde. Bu ölçümler üç farklı bölüme ayrılmıştır: Mesajlar, Siri ve Fotoğraflar. Mesajlar, reşit olmayanların cihazlarında gönderilen ve alınan fotoğrafları tarayacak, Siri yasa dışı materyal aranması konusunda uyaracak ve çocuk pornografisi materyali tespit edilmesi durumunda Fotoğraflar yetkilileri bilgilendirecek. bizim cihazımızda. Bu önlemlerin işleyişi oldukça karmaşıktır, özellikle de Apple'ın üstesinden geldiğine inandığı ve aşağıda açıklayacağımız bir zorluk olan kullanıcı gizliliğini korumak istiyorsanız.

Mesajları

İspanya'da çok yaygın değil, ancak Apple Mesaj sistemi Amerika Birleşik Devletleri'nde ve diğer ülkelerde yaygın olarak kullanılmaktadır. Bu nedenle Mesajlarda çocuklara yönelik cinsel materyalin yayılmasının kontrolü çok önemlidir ve bu yeni önlemlerin temel direklerinden biri olmuştur. Yeni sistem, cinsel içerikli materyaller içeren fotoğraflar gönderildiğinde veya alındığında çocukları ve ebeveynleri bilgilendirecek. Bu, yalnızca 12 yaşında veya daha küçük çocuklara yönelik cihazlarda gerçekleşir., küçük hesabınız iyi yapılandırılmış.

Reşit olmayan (12 yaşında veya daha küçük) bir kişi, Apple'ın "müstehcen" olarak sınıflandırdığı bir fotoğraf alırsa, fotoğraf bulanıklaştırılacak ve küçüklerin anlayabileceği bir dilde görüntünün kendileri için uygun olmayabileceği konusunda uyarılacaktır. Görmeye karar verirseniz (isterseniz görebilirsiniz) ebeveynlerinizin bilgilendirileceği konusunda bilgilendirileceksiniz. Aynı şey, reşit olmayan kişi cinsel bir fotoğraf içeren bir mesaj göndermeye karar verirse gerçekleşecektir.

Bu işlem iPhone içerisinde gerçekleşir, Apple hiçbir zaman müdahale etmez.. Fotoğraf gönderilmeden önce veya iPhone'a ulaştığında taranır ve içeriğinin risk oluşturup oluşturmadığına yapay zeka sistemi ile karar verilir. Bildirim gerçekleşirse, yalnızca reşit olmayanların ebeveynleri tarafından alınır (tekrar ediyoruz, 12 yıl veya daha az), ne Apple ne de yetkililer bu gerçeği bilmeyecek.

Siri

Apple'ın sanal asistanı da çocuk pornografisiyle mücadele edecek şekilde güncellenecek. Birisi bu tür bir içerik için arama yaparsa, Siri onlara malzemenin yasa dışı olduğunu bildirir ve ayrıca bu tür içeriği bildirmenin yolları gibi yardımcı olabilecek kaynaklar sağlar. Yine tüm prosedür kendi cihazımızda gerçekleşecek, ne Apple ne de ilgili herhangi bir yetkili, aramalarımız veya Siri'nin bize yaptığı uyarılar hakkında bilgi sahibi olmayacaktır.

Fotoğraf

Hiç şüphesiz en önemli değişiklik ve nasıl işleyeceğine dair yanlış bilgilerle en çok tartışma yaratan değişiklik. Apple, iCloud'un kullanıcıların bulutta sakladığı çocuk pornografisi görüntülerini tespit edeceğini duyurdu.. Bu beyanda kalırsak, kullanıcıların gizliliğine saygı duyulurken bunun nasıl yapılabileceği konusunda birçok şüphe ortaya çıkar. Ancak Apple bunu düşündü ve gizliliğimizi ihlal etmeden bunu yapmamızı sağlayan bir sistem geliştirdi.

En önemlisi ve bu bilgilerle yayınlanmış birçok makaleye rağmen Apple, çocuk pornografisi içeriği için fotoğraflarınızı taramayacaktır. Küvette çıplak oğlunuzun veya kızınızın resimleri olduğu için sizi bir suçluyla karıştırmayacaklar.. Apple'ın yapacağı şey, CSAM'de çocuk pornografisi olarak listelenen milyonlarca fotoğraftan herhangi birine sahip olup olmadığına bakmak.

CSAM nedir? "Çocukların Cinsel İstismarı Malzemesi" veya Çocukların Cinsel İstismarı Malzemesi. Farklı kurumlar tarafından bilinen ve üretilen ve içeriği Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) tarafından kontrol edilen çocuk pornografisi içerikli fotoğraflardan oluşan bir katalogdur. Bu fotoğrafların her birinin değişmez bir dijital imzası vardır ve bu, kullanıcının bu fotoğraflara sahip olup olmadığını bilmek için kullanılan şeydir.. Fotoğraflarımızın imzalarını CSAM'ınkilerle karşılaştıracak, ancak tesadüfler varsa alarm çalacaktır.

Bu nedenle Apple, içeriğin cinsel olup olmadığını görmek için fotoğraflarımıza bakmayacak, yapay zeka kullanmayacak, fotoğraflarımızı bile görmeyecek. Her fotoğrafın yalnızca dijital imzalarını kullanacak ve bunları CSAM'da yer alan imzalarla karşılaştıracak ve yalnızca tesadüf olması durumunda içeriğimizi inceleyecektir. Fotoğraflarımdan biri yanlışlıkla uygunsuz içerik olarak tanımlanırsa ne olur? Apple, bunun pratik olarak imkansız olduğunu garanti ediyor, ancak olsaydı, hiçbir sorun olmazdı. İlk olarak, bir eşleşme yeterli değildir, birkaç eşleşme olmalıdır (kaç tane olduğunu bilmiyoruz) ve bu sınır sayısı aşılırsa (yalnızca aşılırsa) Apple, gerçekten çocuk pornografisi olup olmadığını değerlendirmek için bu belirli fotoğrafları inceler. Yetkililere bildirmeden önce içerik veya değil.

Bu nedenle fotoğrafların iCloud'da saklanması gereklidir, çünkü bu işlem kısmen cihazda gerçekleşir (dijital imzaların karşılaştırılması), ancak olumlu olması durumunda, manuel içerik incelemesi, iCloud'daki fotoğrafları inceleyerek Apple çalışanları tarafından yapılır, çünkü cihazımıza hiçbir şekilde erişmezler.

Gizliliğiniz hakkında sorularınız mı var?

Herhangi bir tespit sistemi, etkinliği ve/veya mahremiyete saygı konusunda şüphe uyandırır. Bir algılama sisteminin gerçekten etkili olması için kullanıcı gizliliğinin ihlal edilmesi gerekiyormuş gibi görünebilir, ancak gerçek şu ki Apple, gizliliğimizin garanti edildiği bir sistem tasarlamıştır. Mesajlar ve Siri algılama sistemi, cihazımızda gerçekleştiği için şüphe uyandırmaz., Apple'ın hiçbir şeyden haberi olmadan. Yalnızca iCloud'daki fotoğrafları algılama sistemi şüphe uyandırabilir, ancak gerçek şu ki Apple, verilerimizin yalnızca bize ait olmasını sağlamaya devam etmek için büyük özen gösterdi.

Apple'ın iCloud'daki verilerimize erişebileceği tek bir durum olurdu: Bazı fotoğraflarımız alarm verirse ve gerçekten yasa dışı içerik olup olmadığını görmek için onları gözden geçirmeleri gerekir. Bunun yanlışlıkla olma olasılığı olağanüstü düşük, sonsuz küçük. Şahsen, çocuk pornografisiyle mücadeleye yardımcı olacaksa, bu pek olası olmayan riskin alınmaya değer olduğuna inanıyorum.

iPhone'umuza erişmek için bir arka kapı mı?

Kesinlikle. Apple hiçbir zaman iPhone'umuzdaki verilere erişime izin vermez. iPhone'umuzda olan iPhone'umuzda kalır. Verilerimize erişebileceğiniz tek nokta, iCloud'da saklanan fotoğraflar hakkında konuştuğumuz zamandır, asla iPhone'umuzda değil. Arka kapı yok.

Yine de çocuklarımın fotoğraflarını alabilir miyim?

En ufak bir sorun olmadan. Birkaç kez tekrarladım ama bir kez daha söyleyeceğim: Apple, çocuk cinsel içeriği içerip içermediğini görmek için fotoğraflarınızı taramayacaktır. Bebeğinizin küvette çekilmiş fotoğrafları varsa uygunsuz içerik olarak algılanmayacağı için sorun yoktur.. Apple'ın yapacağı şey, zaten bilinen ve CSAM tarafından kataloglanan fotoğrafların tanımlayıcılarını aramak ve bunları iPhone'unuzun tanımlayıcılarıyla karşılaştırmaktır, başka bir şey değil.


Bizi Google Haberler'de takip edin

Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: AB Internet Networks 2008 SL
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.