Hệ thống chống nội dung khiêu dâm trẻ em mới của Apple hoạt động như thế nào (Và cách nó không hoạt động)

Đóng tài khoản Facebook của trẻ vị thành niên

Apple đã công bố các biện pháp mới để cải thiện hệ thống bảo vệ trẻ em của bạn và đấu tranh chống lại nội dung khiêu dâm trẻ em. Chúng tôi giải thích cách các biện pháp mới này hoạt động và những gì chúng không làm.

Apple đã thêm Các biện pháp mới phối hợp với các chuyên gia về an toàn trẻ em để chống lại việc phát tán tài liệu lạm dụng tình dục trẻ em. Các phép đo này được chia thành ba phần khác nhau: Tin nhắn, Siri và Ảnh. Tin nhắn sẽ quét ảnh được gửi và nhận trên thiết bị của trẻ vị thành niên, Siri sẽ cảnh báo về việc tìm kiếm tài liệu bất hợp pháp và Ảnh sẽ thông báo cho chính quyền trong trường hợp phát hiện tài liệu khiêu dâm trẻ em trên thiết bị của chúng tôi. Hoạt động của các biện pháp này khá phức tạp, đặc biệt nếu bạn muốn duy trì quyền riêng tư của người dùng, một thách thức mà Apple tin rằng họ đã vượt qua được và chúng tôi sẽ giải thích bên dưới.

Tin nhắn

Ở Tây Ban Nha, nó không phổ biến lắm, nhưng hệ thống Apple Message được sử dụng rộng rãi ở Hoa Kỳ và các nước khác. Đó là lý do tại sao việc kiểm soát việc phổ biến tài liệu tình dục trẻ em trong Tin nhắn là rất quan trọng và là một trong những trụ cột của các biện pháp mới này. Hệ thống mới sẽ thông báo cho trẻ em và phụ huynh khi các bức ảnh có nội dung khiêu dâm được gửi hoặc nhận. Điều này sẽ chỉ xảy ra trên các thiết bị dành cho trẻ em từ 12 tuổi trở xuống., với tài khoản nhỏ của bạn được cấu hình tốt.

Nếu trẻ vị thành niên (12 tuổi trở xuống) nhận được một bức ảnh mà Apple đã phân loại là “khiêu dâm”, bức ảnh đó sẽ bị làm mờ và chúng sẽ được thông báo bằng ngôn ngữ dễ hiểu đối với trẻ vị thành niên rằng hình ảnh đó có thể không phù hợp với chúng. Nếu bạn quyết định xem nó (bạn có thể xem nếu bạn chọn) bạn sẽ được thông báo rằng cha mẹ bạn sẽ được thông báo. Điều tương tự cũng sẽ xảy ra nếu trẻ vị thành niên quyết định gửi một tin nhắn có chứa ảnh khiêu dâm.

Quá trình này xảy ra bên trong iPhone, Apple không can thiệp bất cứ lúc nào. Ảnh được quét trước khi gửi hoặc khi nhận ảnh trên iPhone và sử dụng hệ thống trí tuệ nhân tạo, ảnh sẽ được quyết định xem nội dung của ảnh có gây rủi ro hay không. Thông báo, nếu nó xảy ra, sẽ chỉ được nhận bởi cha mẹ của trẻ vị thành niên (chúng tôi xin nhắc lại, từ 12 tuổi trở xuống), cả Apple và nhà chức trách đều không biết gì về sự thật này.

Siri

Trợ lý ảo của Apple cũng sẽ được cập nhật để chống lại nội dung khiêu dâm trẻ em. Nếu ai đó tiến hành tìm kiếm loại nội dung này, Siri sẽ thông báo cho họ rằng tài liệu đó là bất hợp pháp và cũng sẽ cung cấp các tài nguyên có thể hữu ích, chẳng hạn như các cách báo cáo loại nội dung này. Một lần nữa, toàn bộ quy trình sẽ diễn ra trên thiết bị của chính chúng tôi, Apple hay bất kỳ cơ quan có thẩm quyền thích hợp nào sẽ không biết về các tìm kiếm của chúng tôi cũng như về các cảnh báo mà Siri đưa ra cho chúng tôi.

Hình ảnh

Đó chắc chắn là thay đổi quan trọng nhất và là thay đổi gây ra nhiều tranh cãi nhất, với thông tin sai lệch về cách nó sẽ hoạt động. Apple đã thông báo rằng iCloud sẽ phát hiện các hình ảnh khiêu dâm trẻ em mà người dùng đã lưu trữ trên đám mây. Nếu chúng tôi tiếp tục với tuyên bố này, nhiều nghi ngờ được đặt ra về việc làm thế nào điều này có thể được thực hiện trong khi vẫn tôn trọng quyền riêng tư của người dùng. Nhưng Apple đã nghĩ đến điều đó và đã phát minh ra một hệ thống cho phép chúng tôi làm điều này mà không vi phạm quyền riêng tư của chúng tôi.

Quan trọng nhất, và mặc dù có nhiều bài báo đã được xuất bản với thông tin này, Apple sẽ không quét ảnh của bạn để tìm nội dung khiêu dâm trẻ em. Họ sẽ không nhầm bạn với tội phạm vì bạn có hình ảnh con trai hoặc con gái khỏa thân của bạn trong bồn tắm. Những gì Apple sẽ làm là xem liệu bạn có bất kỳ bức ảnh nào trong số hàng triệu bức ảnh được liệt kê trong CSAM là nội dung khiêu dâm trẻ em hay không.

CSAM là gì? "Tài liệu Lạm dụng Tình dục Trẻ em" hoặc Tài liệu Lạm dụng Tình dục Trẻ em. Đây là danh mục các bức ảnh có nội dung khiêu dâm trẻ em, được biết đến và sản xuất bởi các cơ quan khác nhau và có nội dung được kiểm soát bởi Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC). Mỗi bức ảnh này có một chữ ký điện tử, bất biến và đó chính xác là thứ được sử dụng để biết người dùng có những bức ảnh đó hay không. Nó sẽ so sánh chữ ký của những bức ảnh của chúng tôi với những bức ảnh của CSAM, chỉ khi có sự trùng hợp thì chuông báo động mới phát ra.

Do đó, Apple sẽ không quét qua các bức ảnh của chúng tôi để xem nội dung có phải là tình dục hay không, nó sẽ không sử dụng trí thông minh nhân tạo, thậm chí sẽ không xem ảnh của chúng tôi. Nó sẽ chỉ sử dụng các chữ ký điện tử của mỗi bức ảnh và nó sẽ so sánh chúng với các chữ ký có trong CSAM, và chỉ trong trường hợp trùng hợp, nó sẽ xem xét nội dung của chúng tôi. Điều gì sẽ xảy ra nếu một trong những ảnh của tôi bị xác định nhầm là có nội dung không phù hợp? Apple đảm bảo rằng điều này thực tế là không thể, nhưng nếu nó xảy ra thì sẽ không có vấn đề gì. Đầu tiên, một trận đấu là chưa đủ, phải có một số trận đấu (chúng tôi không biết là bao nhiêu), và nếu con số giới hạn đó bị vượt quá (chỉ khi nó vượt quá) Apple sẽ xem xét những bức ảnh cụ thể đó để đánh giá xem chúng có thực sự là nội dung khiêu dâm trẻ em hay không. nội dung hay không trước khi thông báo với cơ quan chức năng.

Vì lý do này, cần phải lưu trữ các bức ảnh trong iCloud, vì quy trình này xảy ra một phần trên thiết bị (so sánh chữ ký điện tử) nhưng trong trường hợp có dương tính, đánh giá nội dung thủ công được thực hiện bởi nhân viên Apple bằng cách xem lại ảnh trong iCloud, vì họ không truy cập thiết bị của chúng tôi theo bất kỳ cách nào.

Câu hỏi về quyền riêng tư của bạn?

Bất kỳ hệ thống phát hiện nào cũng làm dấy lên nghi ngờ về tính hiệu quả của nó và / hoặc về sự tôn trọng quyền riêng tư. Có vẻ như để một hệ thống phát hiện thực sự hiệu quả, quyền riêng tư của người dùng phải bị xâm phạm, nhưng thực tế là Apple đã thiết kế một hệ thống trong đó quyền riêng tư của chúng ta được đảm bảo. Hệ thống phát hiện Tin nhắn và Siri không gây nghi ngờ, vì nó xảy ra trong thiết bị của chúng tôi, mà Apple không có kiến ​​thức về bất cứ điều gì. Chỉ có hệ thống phát hiện ảnh trong iCloud mới có thể làm dấy lên nghi ngờ, nhưng thực tế là Apple đã rất cẩn thận để tiếp tục đảm bảo rằng dữ liệu của chúng tôi chỉ là của chúng tôi.

Sẽ chỉ có một trường hợp mà Apple sẽ truy cập vào dữ liệu của chúng tôi trong iCloud: nếu một số bức ảnh của chúng tôi bị báo động và họ phải xem lại chúng để xem chúng có thực sự là nội dung bất hợp pháp hay không. Khả năng điều này xảy ra do nhầm lẫn là cực kỳ thấp, rất nhỏ. Cá nhân tôi tin rằng rủi ro rất khó xảy ra này là đáng chấp nhận nếu nó giúp chống lại nội dung khiêu dâm trẻ em.

Một cửa sau để truy cập iPhone của chúng tôi?

Chắc chắn rồi. Apple không lúc nào cho phép truy cập vào dữ liệu trên iPhone của chúng tôi. Điều gì xảy ra trên iPhone của chúng tôi vẫn ở trên iPhone của chúng tôi. Điểm duy nhất mà bạn có thể truy cập dữ liệu của chúng tôi là khi chúng tôi nói về những bức ảnh được lưu trữ trong iCloud, không bao giờ trên iPhone của chúng tôi. Không có cửa sau.

Tôi vẫn có thể có ảnh của các con tôi?

Nếu không có vấn đề nhỏ nhất. Tôi đã nhắc lại vài lần nhưng tôi sẽ nói lại một lần nữa: Apple sẽ không quét ảnh của bạn để xem chúng có chứa nội dung tình dục trẻ em hay không. Nếu bạn có ảnh của em bé trong bồn tắm, không có vấn đề gì vì nó sẽ không bị phát hiện là nội dung không phù hợp. Những gì Apple sẽ làm là tìm kiếm mã nhận dạng của các bức ảnh đã được biết đến và CSAM đã lập danh mục và so sánh chúng với mã nhận dạng của iPhone của bạn, không cần gì hơn.


Theo dõi chúng tôi trên Google Tin tức

Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: AB Internet Networks 2008 SL
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.