Останнім часом суперечки впали, як плита, на офіси компанії в Купертіно, причина в тому, що CSAM, відоме відстеження, яке технологічні компанії надають своїм послугам у пошуках дитячої порнографії з метою захисту потенційних жертв.
Apple попереджає, що її протокол відстеження дитячої порнографії не працює в iCloud Photos, але був у пошті роками. Насправді, це практика, яку вже виконують багато інших компаній, і, здається, за останні часи це не викликало жодного пухиря. Що відбувається з протоколами CSAM?
Фактично, Apple підтвердила, що вона щонайменше три роки сканувала вміст iCloud Mail у пошуках дитячої порнографії та з міркувань безпеки, що, наприклад, Google робило протягом багатьох років у Gmail. Однак вони вважають за потрібне уточнити, що ця система «сканування» наразі не виконується на фотографіях iCloud.
Так чи інакше, це "повзання" Це не впливає на фотографії, які зберігаються у фізичній пам’яті нашого пристрою, але тільки в тих, які проходять через сервери iCloud або надсилаються поштою.
Apple використовує технологію пошуку та аналізу зображень для пошуку та повідомлення про вміст жорстокого поводження з дітьми. Наша система використовує вдосконалені електронні підписи.
Це мало що говорить про те, як працює система сканування Apple, однак, якщо ви не є учасником цього виду злочинної діяльності, У чому проблема з алгоритмом ідентифікації дитячої порнографії на серверах Apple? Тим часом, щодо цього питання продовжують тривати суперечки, які, здається, викликають велику стурбованість у Сполучених Штатах Америки.