Wie Apples neues Kinderpornografie-System funktioniert (und wie es nicht funktioniert)

Schließen Sie das Facebook-Konto eines Minderjährigen

Apple hat neue Maßnahmen angekündigt Verbessern Sie Ihr Kinderschutzsystem und bekämpfen Sie Kinderpornografie. Wir erklären, wie diese neuen Maßnahmen funktionieren und was sie nicht tun.

Apple hat hinzugefügt Neue Maßnahmen in Zusammenarbeit mit Experten für Kindersicherheit, um die Verbreitung von Materialien zum sexuellen Missbrauch von Kindern zu bekämpfen. Diese Messungen sind in drei verschiedene Abschnitte unterteilt: Nachrichten, Siri und Fotos. Nachrichten scannen die Fotos, die auf Geräten von Minderjährigen gesendet und empfangen werden, Siri warnt vor der Suche nach illegalem Material und Photos benachrichtigt die Behörden, falls kinderpornografisches Material entdeckt wird auf unserem Gerät. Die Durchführung dieser Maßnahmen ist ziemlich komplex, insbesondere wenn Sie die Privatsphäre der Benutzer wahren möchten, eine Herausforderung, die Apple gemeistert glaubt und die wir im Folgenden erläutern werden.

Beiträge

In Spanien ist es nicht sehr verbreitet, aber das Apple Message System ist in den USA und in anderen Ländern weit verbreitet. Aus diesem Grund ist die Kontrolle der Verbreitung von kindlichem sexuellem Material in Messages sehr wichtig und eine der Säulen dieser neuen Maßnahmen. Das neue System benachrichtigt Kinder und Eltern, wenn Fotos mit sexuell eindeutigem Material gesendet oder empfangen werden. Dies tritt nur auf Geräten für Kinder unter 12 Jahren auf., mit Ihrem Minor-Konto gut konfiguriert.

Wenn ein Minderjähriger (12 Jahre oder jünger) ein Foto erhält, das Apple als „sexuell explizit“ eingestuft hat, wird es unscharf und in einer für den Minderjährigen verständlichen Sprache darauf hingewiesen, dass das Bild möglicherweise nicht für ihn geeignet ist. Wenn Sie sich entscheiden, es zu sehen (Sie können es sehen, wenn Sie möchten) Sie werden darauf hingewiesen, dass Ihre Eltern benachrichtigt werden. Dasselbe passiert, wenn der Minderjährige beschließt, eine Nachricht zu senden, die ein sexuelles Foto enthält.

Dieser Vorgang findet im iPhone statt, Apple greift zu keiner Zeit ein. Das Foto wird gescannt, bevor es gesendet oder auf dem iPhone empfangen wird, und mithilfe eines künstlichen Intelligenzsystems wird entschieden, ob sein Inhalt ein Risiko darstellt oder nicht. Die Benachrichtigung, wenn sie erfolgt, erhalten nur die Eltern des Minderjährigen (wir wiederholen, 12 Jahre oder weniger), weder Apple noch die Behörden werden von dieser Tatsache Kenntnis haben.

Siri

Apples virtueller Assistent wird ebenfalls aktualisiert, um Kinderpornografie zu bekämpfen. Wenn jemand nach dieser Art von Inhalten sucht, benachrichtigt Siri ihn, dass das Material illegal ist, und bietet Ihnen auch hilfreiche Ressourcen an, z. B. eine Möglichkeit, diese Art von Inhalten zu melden. Auch hier findet der gesamte Vorgang auf unserem eigenen Gerät statt, haben weder Apple noch eine zuständige Behörde Kenntnis von unseren Durchsuchungen oder den Warnungen, die Siri uns macht.

Bilder

Es ist zweifellos die wichtigste Änderung und diejenige, die die meisten Kontroversen ausgelöst hat, mit Fehlinformationen darüber, wie sie funktionieren wird. Apple hat angekündigt, dass iCloud Bilder von Kinderpornografie erkennt, die Benutzer in der Cloud gespeichert haben. Wenn wir bei dieser Aussage bleiben, kommen viele Zweifel auf, wie dies unter Wahrung der Privatsphäre der Benutzer erfolgen kann. Aber Apple hat darüber nachgedacht und ein System entwickelt, das es uns ermöglicht, dies zu tun, ohne unsere Privatsphäre zu verletzen.

Am wichtigsten ist, dass Apple Ihre Fotos trotz der vielen Artikel, die mit diesen Informationen veröffentlicht wurden, nicht auf kinderpornografische Inhalte scannt. Sie werden dich nicht für einen Kriminellen halten, weil du Fotos von deinem nackten Sohn oder deiner Tochter in der Badewanne hast. Was Apple tun wird, ist zu sehen, ob Sie eines der Millionen von Fotos haben, die in CSAM als Kinderpornografie aufgeführt sind.

Was ist CSAM? „Material zum sexuellen Missbrauch von Kindern“ oder Material zum sexuellen Missbrauch von Kindern. Es handelt sich um einen Katalog von Fotografien mit kinderpornografischen Inhalten, die von verschiedenen Stellen bekannt und produziert wurden und deren Inhalt vom National Center for Missing and Exploited Children (NCMEC) kontrolliert wird. Jedes dieser Fotos hat eine unveränderliche digitale Signatur, und genau das wird verwendet, um zu wissen, ob der Benutzer diese Fotos hat oder nicht. Es vergleicht die Unterschriften unserer Fotos mit denen des CSAM, nur wenn es Zufälle gibt, wird der Alarm ausgelöst.

Daher wird Apple unsere Fotos nicht durchsuchen, um zu sehen, ob der Inhalt sexuell ist oder nicht, es wird keine künstliche Intelligenz verwenden, es wird nicht einmal unsere Fotos sehen. Es verwendet nur die digitalen Signaturen jedes Fotos und vergleicht sie mit den im CSAM enthaltenen Signaturen und überprüft nur im Falle eines Zufalls unseren Inhalt. Was ist, wenn eines meiner Fotos fälschlicherweise als unangemessener Inhalt identifiziert wird? Apple versichert, dass dies praktisch unmöglich ist, aber wenn es passieren würde, gäbe es kein Problem. Erstens reicht eine Übereinstimmung nicht aus, es müssen mehrere Übereinstimmungen vorliegen (wir wissen nicht, wie viele) und wenn diese Grenzwertanzahl überschritten wird (nur wenn sie überschritten wird), würde Apple diese spezifischen Fotos überprüfen, um festzustellen, ob es sich tatsächlich um Kinderpornografie handelt Inhalt oder nicht, bevor Sie die Behörden benachrichtigen.

Aus diesem Grund ist es notwendig, dass die Fotos in iCloud gespeichert werden, da dieser Vorgang teilweise auf dem Gerät stattfindet (der Abgleich digitaler Signaturen), aber im Falle eines positiven, Die manuelle Inhaltsüberprüfung wird von Apple-Mitarbeitern durchgeführt, indem sie Fotos in iCloud überprüfen, da sie in keiner Weise auf unser Gerät zugreifen.

Fragen zu Ihrer Privatsphäre?

Jedes Erkennungssystem lässt Zweifel an seiner Wirksamkeit und / oder an der Achtung der Privatsphäre aufkommen. Es mag den Anschein haben, dass die Privatsphäre der Benutzer verletzt werden muss, damit ein Erkennungssystem wirklich effektiv ist, aber die Realität ist, dass Apple ein System entwickelt hat, in dem unsere Privatsphäre garantiert ist. Das Erkennungssystem von Messages und Siri lässt keine Zweifel aufkommen, da es in unserem Gerät auftritt, ohne dass Apple davon Kenntnis hat. Nur das System zur Erkennung von Fotos in iCloud kann Zweifel aufkommen lassen, aber in Wirklichkeit hat Apple große Sorgfalt darauf verwendet, weiterhin sicherzustellen, dass unsere Daten nur uns gehören.

Es gäbe nur einen Fall, in dem Apple auf unsere Daten in iCloud zugreifen würde: Wenn bei einigen unserer Fotos der Alarm ausgelöst wird und sie diese daraufhin überprüfen müssen, ob es sich tatsächlich um illegale Inhalte handelt. Die Wahrscheinlichkeit, dass dies versehentlich passiert, ist außerordentlich gering, verschwindend gering. Ich persönlich glaube, dass es sich lohnt, dieses höchst unwahrscheinliche Risiko einzugehen, wenn es zur Bekämpfung von Kinderpornografie beiträgt.

Eine Hintertür, um auf unser iPhone zuzugreifen?

Unbedingt. Apple erlaubt zu keinem Zeitpunkt den Zugriff auf die Daten auf unserem iPhone. Was auf unserem iPhone passiert, bleibt auf unserem iPhone. Der einzige Punkt, an dem Sie auf unsere Daten zugreifen können, ist, wenn wir über die in iCloud gespeicherten Fotos sprechen, niemals auf unserem iPhone. Es gibt keine Hintertür.

Kann ich noch Fotos von meinen Kindern haben?

Ohne das geringste Problem. Ich habe es mehrmals wiederholt, aber ich sage es noch einmal: Apple wird Ihre Fotos nicht scannen, um zu sehen, ob sie sexuelle Inhalte für Kinder enthalten. Wenn Sie Fotos von Ihrem Baby in der Badewanne haben, ist das kein Problem, da es nicht als unangemessener Inhalt erkannt wird. Apple sucht nach Identifikatoren von bereits bekannten und CSAM-katalogisierten Fotos und vergleicht sie mit den Identifikatoren Ihres iPhones, mehr nicht.


Der Inhalt des Artikels entspricht unseren Grundsätzen von redaktionelle Ethik. Um einen Fehler zu melden, klicken Sie auf hier.

Schreiben Sie den ersten Kommentar

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * gekennzeichnet

*

*

  1. Verantwortlich für die Daten: Miguel Ángel Gatón
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.