Jak działa nowy system pornografii dziecięcej firmy Apple (i jak nie działa)

Zamknij konto nieletniego na Facebooku

Apple ogłosiło nowe środki, aby ulepsz swój system ochrony dzieci i walcz z pornografią dziecięcą. Wyjaśniamy, jak działają te nowe środki, a czego nie.

Apple dodał Nowe środki we współpracy z ekspertami ds. bezpieczeństwa dzieci w celu zwalczania rozpowszechniania materiałów związanych z wykorzystywaniem seksualnym dzieci. Pomiary te są podzielone na trzy różne sekcje: Wiadomości, Siri i Zdjęcia. Wiadomości będą skanować zdjęcia wysyłane i odbierane na urządzeniach nieletnich, Siri ostrzeże o poszukiwaniu nielegalnych materiałów, a Zdjęcia powiadomią władze w przypadku wykrycia materiałów z pornografią dziecięcą na naszym urządzeniu. Działanie tych środków jest dość złożone, zwłaszcza jeśli chcesz zachować prywatność użytkownika, co jest wyzwaniem, które Apple uważa, że ​​udało mu się przezwyciężyć i które wyjaśnimy poniżej.

Wiadomości

W Hiszpanii nie jest to bardzo rozpowszechnione, ale system Apple Message jest szeroko stosowany w Stanach Zjednoczonych i innych krajach. Dlatego kontrola rozpowszechniania materiałów seksualnych dzieci w Przesłaniach jest bardzo ważna i była jednym z filarów tych nowych środków. Nowy system powiadomi dzieci i rodziców o wysłaniu lub odebraniu zdjęć zawierających materiały erotyczne. Będzie to miało miejsce tylko na urządzeniach dla dzieci w wieku 12 lat lub młodszych., z dobrze skonfigurowanym kontem drugorzędnym.

Jeśli osoba niepełnoletnia (w wieku 12 lat lub młodsza) otrzyma zdjęcie, które Apple zaklasyfikowało jako „o charakterze jednoznacznie seksualnym”, zostanie ono zamazane i zostanie poinformowane w języku zrozumiałym dla osoby nieletniej, że zdjęcie może nie być dla niej odpowiednie. Jeśli zdecydujesz się to zobaczyć (możesz to zobaczyć, jeśli wybierzesz) zostaniesz poinformowany, że Twoi rodzice zostaną powiadomieni. To samo stanie się, jeśli nieletni zdecyduje się wysłać wiadomość zawierającą zdjęcie seksualne.

Ten proces zachodzi wewnątrz iPhone'a, Apple nie interweniuje w żadnym momencie. Zdjęcie jest skanowane przed wysłaniem lub po odebraniu na iPhonie, a za pomocą systemu sztucznej inteligencji zostanie podjęta decyzja, czy jego zawartość stanowi zagrożenie, czy nie. Powiadomienie, jeśli się pojawi, otrzymają tylko rodzice nieletniego (powtarzamy, 12 lat lub mniej), ani Apple, ani władze nie będą o tym wiedzieć.

Siri

Wirtualny asystent Apple również zostanie zaktualizowany do walki z pornografią dziecięcą. Jeśli ktoś przeprowadzi wyszukiwanie tego typu treści, Siri powiadomi go, że materiał jest nielegalny, a także udostępni zasoby, które mogą być pomocne, takie jak sposoby zgłaszania tego typu treści. Ponownie cała procedura odbędzie się na naszym własnym urządzeniu, ani Apple, ani żaden odpowiedni organ nie będzie miał wiedzy na temat naszych wyszukiwań ani ostrzeżeń, które wysyła nam Siri.

Zdjęcia

Jest to niewątpliwie najważniejsza zmiana i ta, która wzbudziła najwięcej kontrowersji, z dezinformacją o tym, jak to będzie działać. Apple ogłosiło, że iCloud będzie wykrywać obrazy pornografii dziecięcej, które użytkownicy przechowują w chmurze. Jeśli pozostaniemy przy tym stwierdzeniu, pojawia się wiele wątpliwości, jak można to zrobić z poszanowaniem prywatności użytkowników. Ale Apple pomyślał o tym i opracował system, który pozwala nam to zrobić bez naruszania naszej prywatności.

Co najważniejsze, pomimo wielu artykułów, które zostały opublikowane z tymi informacjami, Apple nie będzie skanować Twoich zdjęć w poszukiwaniu treści z pornografią dziecięcą. Nie pomylą Cię z przestępcą, bo masz zdjęcia swojego nagiego syna lub córki w wannie. To, co zamierza zrobić Apple, to sprawdzić, czy masz któreś z milionów zdjęć wymienionych w CSAM jako pornografia dziecięca.

Co to jest CSAM? „Materiały przedstawiające wykorzystywanie seksualne dzieci” lub materiały przedstawiające wykorzystywanie seksualne dzieci. Jest to katalog fotografii z treściami pornografii dziecięcej, znanymi i produkowanymi przez różne organy, których treść jest kontrolowana przez Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC). Każde z tych zdjęć ma niezmienny podpis cyfrowy i właśnie to jest używane, aby wiedzieć, czy użytkownik ma te zdjęcia, czy nie. Porówna podpisy na naszych zdjęciach z podpisami CSAM, tylko w przypadku zbiegów okoliczności włączy się alarm.

Dlatego Apple nie zamierza przeglądać naszych zdjęć, aby sprawdzić, czy treść jest seksualna, czy nie, nie użyje sztucznej inteligencji, nawet nie zobaczy naszych zdjęć. Użyje tylko podpisów cyfrowych każdego zdjęcia i porówna je z podpisami zawartymi w CSAM i tylko w przypadku zbiegu okoliczności dokona przeglądu naszych treści. Co się stanie, jeśli jedno z moich zdjęć zostanie omyłkowo zidentyfikowane jako nieodpowiednie treści? Apple zapewnia, że ​​jest to praktycznie niemożliwe, ale gdyby tak się stało, nie byłoby problemu. Po pierwsze, dopasowanie nie wystarczy, musi być kilka dopasowań (nie wiemy ile), a jeśli ten limit zostanie przekroczony (tylko jeśli zostanie przekroczony), Apple sprawdzi te konkretne zdjęcia, aby ocenić, czy rzeczywiście są one pornografią dziecięcą treści lub nie, przed powiadomieniem władz.

Z tego powodu konieczne jest przechowywanie zdjęć w iCloud, ponieważ procedura ta odbywa się częściowo na urządzeniu (porównanie podpisów cyfrowych), ale w przypadku pozytywnego, ręczny przegląd treści jest wykonywany przez pracowników Apple poprzez przeglądanie zdjęć w iCloud, ponieważ w żaden sposób nie uzyskują dostępu do naszego urządzenia.

Masz pytania dotyczące Twojej prywatności?

Każdy system wykrywania budzi wątpliwości co do jego skuteczności i/lub poszanowania prywatności. Może się wydawać, że aby system wykrywania był naprawdę skuteczny, należy naruszać prywatność użytkownika, ale w rzeczywistości Apple zaprojektował system, w którym nasza prywatność jest gwarantowana. System wykrywania Wiadomości i Siri nie budzi wątpliwości, ponieważ występuje w naszym urządzeniu, bez wiedzy Apple o czymkolwiek. Wątpliwości może budzić jedynie system wykrywania zdjęć w iCloud, ale rzeczywistość jest taka, że ​​Apple dołożyło wszelkich starań, aby nadal zapewniać, że nasze dane są tylko nasze.

Byłby tylko jeden przypadek, w którym Apple miałby dostęp do naszych danych w iCloud: jeśli alarm włączy się przy niektórych naszych zdjęciach i będą musieli je przejrzeć, aby sprawdzić, czy rzeczywiście są to nielegalne treści. Szansa, że ​​zdarzy się to przez pomyłkę, jest niezwykle niska, nieskończenie mała. Osobiście uważam, że warto podjąć to bardzo mało prawdopodobne ryzyko, jeśli pomoże to w walce z pornografią dziecięcą.

Tylne drzwi dostępu do naszego iPhone'a?

Absolutnie. Apple w żadnym momencie nie pozwala na dostęp do danych na naszym iPhonie. To, co dzieje się na naszym iPhonie, zostaje na naszym iPhonie. Jedynym punktem, w którym możesz uzyskać dostęp do naszych danych, jest rozmowa o zdjęciach przechowywanych w iCloud, nigdy na naszym iPhonie. Nie ma tylnych drzwi.

Czy nadal mogę mieć zdjęcia moich dzieci?

Bez najmniejszego problemu. Powtórzyłem to kilka razy, ale powiem to jeszcze raz: Apple nie będzie skanować twoich zdjęć, aby sprawdzić, czy zawierają treści erotyczne dla dzieci. Jeśli masz zdjęcia dziecka w wannie, nie ma problemu, ponieważ nie zostaną one wykryte jako nieodpowiednie treści. To, co zrobi Apple, to wyszukanie identyfikatorów zdjęć już znanych i skatalogowanych przez CSAM i porównanie ich z identyfikatorami Twojego iPhone'a, nic więcej.


Obserwuj nas w Wiadomościach Google

Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: AB Internet Networks 2008 SL
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.