U posljednje vrijeme kontroverze su pale kao ploča na urede tvrtke u Cupertinu, razlog je taj csam, poznato je praćenje koje tehnološke tvrtke obavljaju u potrazi za dječjom pornografijom kako bi zaštitile potencijalne žrtve.
Apple upozorava da njegov protokol praćenja dječje pornografije ne radi u iCloud fotografijama, ali je već godinama u Pošti. Zapravo, to je praksa koju mnoge druge tvrtke već provode i čini se da tijekom ovih prošlih vremena nije podigla žulj, što se događa s CSAM protokolima?
Zapravo, Apple je potvrdio da je najmanje tri godine skenirao sadržaj iCloud Maila u potrazi za dječjom pornografijom i iz sigurnosnih razloga, što je, na primjer, Google već dugi niz godina radio u Gmailu. Međutim, smatrali su shodnim pojasniti da se ovaj sustav "skeniranja" trenutno ne provodi na fotografijama iClouda.
U svakom slučaju, ovo "puzanje" Ne utječe na fotografije koje su pohranjene u fizičkoj memoriji našeg uređaja, ali samo u onima koji prolaze kroz iCloud poslužitelje ili se šalju putem pošte.
Apple koristi tehnologiju pretraživanja i analize slika za pronalaženje i prijavu sadržaja o zlostavljanju djece. Naš sustav koristi napredne elektroničke potpise.
To nam ništa ne govori o tome kako funkcionira Appleov sustav skeniranja, međutim, osim ako ste sudionik ove vrste kriminalnih aktivnosti, U čemu je problem s algoritmom za identifikaciju dječje pornografije na Appleovim poslužiteljima? U međuvremenu, kontroverze su i dalje redovne po pitanju ovog pitanja koje izgleda da izazivaju veliku zabrinutost u Sjedinjenim Američkim Državama.