Appleの新しい児童ポルノシステムがどのように機能するか(そしてそれがどのように機能しないか)

未成年者のFacebookアカウントを閉じる

Appleは 児童保護システムを改善し、児童ポルノと戦う。 これらの新しい対策がどのように機能し、何を行わないのかを説明します。

Appleは追加しました 新しい対策 児童の性的虐待資料の拡散に対抗するために、児童安全の専門家と協力して。 これらの測定値は、メッセージ、Siri、写真のXNUMXつのセクションに分かれています。 メッセージは未成年者のデバイスで送受信された写真をスキャンし、Siriは違法な素材の検索を警告し、写真は児童ポルノ素材が検出された場合に当局に通知します 私たちのデバイスで。 これらの対策の操作は非常に複雑であり、特にユーザーのプライバシーを維持したい場合は、Appleが克服できたと信じている課題であり、以下で説明します。

投稿

スペインではあまり普及していませんが、AppleMessageシステムは米国やその他の国で広く使用されています。 そのため、メッセージでの児童の性的コンテンツの配布を管理することは非常に重要であり、これらの新しい対策の柱のXNUMXつとなっています。 新しいシステムは、性的に露骨な内容の写真が送受信されたときに、子供と親に通知します。 これは、12歳以下の子供向けのデバイスでのみ発生します。、マイナーアカウントが適切に構成されている。

未成年者(12歳以下)がAppleが「性的に露骨」と分類した写真を受け取った場合、その写真はぼやけ、未成年者が理解できる言語でその画像が自分に適していない可能性があることを通知されます。 あなたがそれを見ることに決めた場合(あなたが選ぶならあなたはそれを見ることができます) あなたの両親に通知されることが通知されます。 未成年者が性的な写真を含むメッセージを送信することを決定した場合も同じことが起こります。

このプロセスはiPhone内で発生し、Appleはいつでも介入しません。 写真は送信前またはiPhoneで受信時にスキャンされ、人工知能システムを使用して、コンテンツにリスクがあるかどうかが判断されます。 通知が発生した場合、未成年者の両親(繰り返しますが、12年以内)のみが通知を受け取ります。Appleも当局もこの事実を知りません。

シリ

Appleの仮想アシスタントも、児童ポルノと戦うために更新されます。 誰かがこのタイプのコンテンツを検索すると、Siriはそのコンテンツが違法であることを通知し、このタイプのコンテンツを報告する方法など、役立つ可能性のあるリソースも提供します。 繰り返しますが、手順全体は私たち自身のデバイスで行われます、Appleも関係当局も、私たちの検索やSiriからの警告については知りません。

写真

それは間違いなく最も重要な変更であり、それがどのように機能するかについての誤った情報とともに、最も論争を引き起こしたものです。 Appleは、iCloudがユーザーがクラウドに保存した児童ポルノの画像を検出すると発表しました。 この声明にとどまると、ユーザーのプライバシーを尊重しながらこれをどのように行うことができるかについて多くの疑問が生じます。 しかし、Appleはそれについて考え、プライバシーを侵害することなくこれを実行できるシステムを考案しました。

最も重要なことは、この情報とともに公開された多くの記事にもかかわらず、Appleはあなたの写真をスキャンして児童ポルノコンテンツを探すことはありません。 浴槽に裸の息子や娘の写真があるので、彼らはあなたを犯罪者と間違えません。 Appleがやろうとしていることは、児童ポルノとしてCSAMにリストされている何百万もの写真のいずれかがあるかどうかを確認することです。

CSAMとは何ですか? 「児童の性的虐待資料」または児童の性的虐待資料。 これは、さまざまな団体によって知られ、作成され、その内容が全米行方不明・搾取児童センター(NCMEC)によって管理されている、児童ポルノの内容を含む写真のカタログです。 これらの写真にはそれぞれデジタル署名があり、不変であり、ユーザーがそれらの写真を持っているかどうかを知るために使用されるのはまさにそれです。。 写真の署名とCSAMの署名を比較しますが、偶然の一致がある場合にのみアラームが鳴ります。

したがって、Appleはコンテンツが性的であるかどうかを確認するために写真をスキャンすることはなく、人工知能を使用することも、写真を見ることさえしません。 各写真のデジタル署名のみを使用し、CSAMに含まれている署名と比較し、偶然の場合にのみコンテンツを確認します。 写真のXNUMXつが不適切なコンテンツとして誤って識別された場合はどうなりますか? Appleはこれが事実上不可能であることを保証しますが、それが起こったとしても問題はありません。 まず、一致は十分ではなく、いくつかの一致が必要です(数はわかりません)。その制限数を超えた場合(超えた場合のみ)、Appleはそれらの特定の写真を確認して、それらが本当に児童ポルノであるかどうかを評価します。当局に通知する前に内容かどうか。

このため、写真はiCloudに保存する必要があります。これは、この手順の一部がデバイス上で行われるためです(デジタル署名の比較)が、肯定的な場合は、 手動のコンテンツレビューは、Appleの従業員がiCloudで写真をレビューすることによって行われます、彼らは決して私たちのデバイスにアクセスしないので。

あなたのプライバシーについて疑問がありますか?

検出システムは、その有効性やプライバシーの尊重について疑問を投げかけます。 検出システムが本当に効果的であるためには、ユーザーのプライバシーが侵害されているように見えるかもしれませんが、実際には、Appleは私たちのプライバシーが保証されるシステムを設計しています。 メッセージとSiriの検出システムは、デバイス内で発生するため、疑う余地はありません。、Appleが何も知らなくても。 iCloudで写真を検出するためのシステムだけが疑問を投げかけることができますが、現実には、Appleは私たちのデータが私たちだけのものであることを保証し続けるために細心の注意を払っています。

AppleがiCloud内のデータにアクセスするケースはXNUMXつだけです。それは、一部の写真でアラームが鳴り、それらが本当に違法なコンテンツであるかどうかを確認する必要がある場合です。 これが誤って発生する可能性は非常に低く、ごくわずかです。。 私は個人的に、この非常にありそうもないリスクが児童ポルノとの戦いに役立つのであれば、取る価値があると信じています。

私たちのiPhoneにアクセスするための裏口?

絶対。 Appleは、iPhone上のデータへのアクセスを許可していません。 私たちのiPhoneで起こったことは私たちのiPhoneにとどまります。 私たちのデータにアクセスできる唯一のポイントは、iPhoneではなくiCloudに保存されている写真について話すときです。 裏口はありません。

子供たちの写真をまだ持っていてもいいですか?

少しの問題もなく。 私はそれを数回繰り返しましたが、もう一度言います。Appleはあなたの写真をスキャンして、子供の性的コンテンツが含まれているかどうかを確認しません。 浴槽に赤ちゃんの写真があれば、不適切なコンテンツとして検出されないので問題ありません。。 Appleが行うことは、既知でCSAMがカタログ化されている写真の識別子を探し、それらをiPhoneの識別子と比較することだけです。


Google ニュースでフォローしてください

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:AB Internet Networks 2008 SL
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。