最近、論争はクパチーノ会社のオフィスをめぐるスラブのように落ちました、理由は CSAM、 テクノロジー企業が被害者の可能性を保護するために児童ポルノを求めてサービスを実行する追跡が知られているためです。
Appleは、その児童ポルノ追跡プロトコルはiCloud Photosでは機能しないが、何年もの間Mailにあると警告している。 実際、他の多くの企業がすでに実施している慣行であり、過去の間にブリスターを発生させたようには見えませんが、CSAMプロトコルで何が起こっているのでしょうか。
実際、Appleは、児童ポルノを探して、セキュリティ上の理由から、iCloud Mailのコンテンツを少なくともXNUMX年間スキャンしていることを確認しています。これは、たとえば、GoogleがGmailで長年行ってきたことです。 しかし、彼らは、この「スキャン」システムが(現時点では)iCloud写真で実行されていないことを明確にするのに適していると考えています。
いずれにせよ、この「クロール」 デバイスの物理メモリに保存されている写真には影響しません。 ただし、iCloudサーバーを経由するものまたはメールを介して送信されるもののみ。
Appleは、画像検索および分析テクノロジーを使用して、児童虐待のコンテンツを見つけて報告します。 私たちのシステムは高度電子署名を使用しています。
これは、Appleのスキャンシステムがどのように機能するかについてはほとんど何も教えてくれませんが、あなたがこの種の犯罪活動に参加していない限り、 Appleのサーバーで児童ポルノを識別するアルゴリズムの問題は何ですか? その間、アメリカ合衆国で大きな懸念を引き起こしているように思われるこの問題に関する論争は今日の秩序のままです。