Kohët e fundit polemika ka rënë si një pllakë mbi zyrat e kompanisë Cupertino, arsyeja është csam, pasi është e njohur gjurmimi që kompanitë teknologjike kryejnë nga shërbimet e tyre në kërkim të pornografisë së fëmijëve në mënyrë që të mbrojnë viktimat e mundshme.
Apple paralajmëron se protokolli i saj i ndjekjes së pornografisë së fëmijëve nuk funksionon në iCloud Photos por ka qenë në Mail për vite me rradhë. Në fakt, është një praktikë që shumë kompani të tjera tashmë e zbatojnë dhe nuk duket se ka ngritur ndonjë flluskë gjatë këtyre kohëve të kaluara, çfarë po ndodh me protokollet CSAM?
Në fakt, Apple ka konfirmuar se ka skanuar përmbajtjen e iCloud Mail për të paktën tre vjet në kërkim të pornografisë së fëmijëve dhe për arsye sigurie, diçka që, për shembull, Google e ka bërë për shumë vite në Gmail. Sidoqoftë, ata e kanë parë të arsyeshme të sqarojnë se ky sistem "skanimi" nuk po kryhet (për momentin) në fotot e iCloud.
Sido që të jetë, kjo "zvarritje" Nuk ndikon në fotografitë që ruhen në kujtesën fizike të pajisjes sonë, por vetëm në ato që kalojnë nëpër serverët iCloud ose dërgohen përmes Postës.
Apple përdor teknologjinë e kërkimit dhe analizës së imazheve për të gjetur dhe raportuar përmbajtje të abuzimit me fëmijët. Sistemi ynë përdor nënshkrime elektronike të avancuara.
Kjo nuk na thotë shumë pak se si funksionon sistemi i skanimit të Apple, megjithatë, nëse nuk jeni pjesëmarrës në këtë lloj aktiviteti kriminal, Cili është problemi me një algoritëm që identifikon pornografinë e fëmijëve në serverët e Apple? Ndërkohë, polemikat mbeten të ditës në lidhje me këtë çështje që duket se po shkakton shqetësim të madh në Shtetet e Bashkuara të Amerikës.