Apple ไม่สแกนรูปภาพเพื่อดูภาพอนาจารของเด็ก แต่ Mail สแกน

ระยะหลังๆ นี้ เกิดการโต้เถียงกันอย่างท่วมท้นถึงสำนักงานของบริษัท Cupertino เหตุผลก็คือ ซีเอสเอเอ็ม, เป็นที่ทราบกันดีว่าการติดตามว่าบริษัทเทคโนโลยีดำเนินการบริการของตนเพื่อค้นหาภาพอนาจารเด็กเพื่อปกป้องผู้ที่อาจตกเป็นเหยื่อ

Apple เตือนว่าโปรโตคอลการติดตามภาพอนาจารของเด็กไม่ทำงานใน iCloud Photos แต่อยู่ใน Mail มาหลายปีแล้ว อันที่จริง มันเป็นแนวปฏิบัติที่บริษัทอื่นหลายแห่งได้ดำเนินการไปแล้ว และดูเหมือนว่าจะไม่มีตุ่มพุพองใดๆ ในช่วงเวลาที่ผ่านมานี้ เกิดอะไรขึ้นกับโปรโตคอล CSAM?

อันที่จริง Apple ยืนยันว่าได้สแกนเนื้อหาของเมล iCloud มาอย่างน้อยสามปีเพื่อค้นหาภาพอนาจารของเด็กและด้วยเหตุผลด้านความปลอดภัย เช่น Google ทำมาหลายปีใน Gmail อย่างไรก็ตาม พวกเขาเห็นสมควรที่จะชี้แจงว่าระบบ "การสแกน" นี้ไม่ได้ดำเนินการ (สำหรับตอนนี้) บนรูปภาพ iCloud

ไม่ว่าจะด้วยวิธีใด "การรวบรวมข้อมูล" นี้ ไม่ส่งผลต่อภาพถ่ายที่เก็บไว้ในหน่วยความจำกายภาพของอุปกรณ์ของเรา แต่เฉพาะในเซิร์ฟเวอร์ที่ผ่านเซิร์ฟเวอร์ iCloud หรือส่งผ่านเมลเท่านั้น

Apple ใช้เทคโนโลยีการค้นหาและวิเคราะห์รูปภาพเพื่อค้นหาและรายงานเนื้อหาเกี่ยวกับการล่วงละเมิดเด็ก ระบบของเราใช้ลายเซ็นอิเล็กทรอนิกส์ขั้นสูง

สิ่งนี้บอกเราเพียงเล็กน้อยถึงไม่มีอะไรเกี่ยวกับการทำงานของระบบการสแกนของ Apple อย่างไรก็ตาม เว้นแต่คุณจะมีส่วนร่วมในกิจกรรมอาชญากรรมประเภทนี้ อะไรคือปัญหาของอัลกอริทึมที่ระบุภาพอนาจารของเด็กบนเซิร์ฟเวอร์ของ Apple? ในขณะเดียวกัน การโต้เถียงยังคงเป็นลำดับของวันนี้เกี่ยวกับปัญหานี้ซึ่งดูเหมือนว่าจะก่อให้เกิดความกังวลอย่างมากในสหรัฐอเมริกา


ติดตามเราบน Google News

แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. รับผิดชอบข้อมูล: AB Internet Networks 2008 SL
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา