Apple njoftoi javën e kaluar një sistem të ri zbulimi për CSAM (Materiali i Abuzimit Seksual të Fëmijëve) në iCloud, një masë që shumë përdorues e kanë parë si fundi i privatësisë që Apple na ka mësuarMe Nëse keni ndonjë pyetje në lidhje me funksionimin e tij, mund të vizitoni këtë lidhje ku ne shpjegojmë çfarë është ky sistem dhe si funksionon në të vërtetë.
Ndërsa polemikat mbi këtë sistem vazhdojnë dhe disa shoqata të të drejtave e ftojnë Apple të mos e zbatojë atë, një mjek i San Francisco Bay është akuzuar për posedoni pornografi për fëmijë në llogarinë tuaj Apple iCloud.
Departamenti i Drejtësisë i Shteteve të Bashkuara njoftoi të enjten se 58-vjeçari Andrew Mollick kishte të paktën 2.000 imazhe dhe video të shfrytëzimit seksual të fëmijëve. të ruajtur në llogarinë tuaj iCloudMe Andrew Mollick është një specialist onkologjik i lidhur me disa qendra mjekësore të San Francisco Bay Area, si dhe një profesor i asociuar në Shkollën e Mjekësisë UCSF.
I arrestuari ngarkoi një nga ato imazhe në aplikacionin e mediave sociale Kik, ishte atëherë që policia federale e kreu një hetim për gjetjen e tijMe Në atë moment, ishte kur federatat gjetën të gjithë përmbajtjen që ai kishte ruajtur në iCloud.
Apple vazhdon pavarësisht polemikave
Kohët e fundit Apple njoftoi planet për të prezantuar një sistem të krijuar për zbuloni materialin e abuzimit seksual të fëmijëve në iCloud dhe siguroni një raport Qendrës Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC).
Sistemi nuk skanon imazhe nga llogaria iCloud e përdoruesitMe Në vend të kësaj, ajo kontrollon hashet (identifikuesit) e imazheve të ruajtura në iCloud kundër hasheve të njohura CSAM të ofruara nga organizatat e sigurisë së fëmijëve. Me
Pavarësisht reagimeve të ashpra, Apple po shkon përpara me planet e saj për të debutuar sistemin e zbulimit të CSAM. E ruan atë platforma do të vazhdojë të ruajë privatësinë të përdoruesve që nuk kanë koleksione CSAM në llogaritë e tyre iCloud.