На прошлой неделе Apple анонсировала новую систему обнаружения CSAM (материалов сексуального насилия над детьми) в iCloud. конец конфиденциальности, к которой Apple привыкла. Если у вас есть какие-либо вопросы о его работе, вы можете перейти по этой ссылке, где мы объясним что это за система и как она действительно работает.
В то время как споры по поводу этой системы продолжаются, и некоторые ассоциации правозащитников призывают Apple не внедрять ее, в этом обвиняют врача из залива Сан-Франциско. храните детскую порнографию в своей учетной записи Apple iCloud.
В четверг Министерство юстиции США объявило, что у 58-летнего Эндрю Моллика есть не менее 2.000 изображений и видео, посвященных сексуальной эксплуатации детей. хранится в вашей учетной записи iCloud. Эндрю Моллик - онколог, работающий в нескольких медицинских центрах Сан-Франциско, а также доцент Медицинской школы UCSF.
Задержанный загрузил одно из таких изображений в приложение соцсети Kik, именно тогда федеральная полиция провела расследование, чтобы найти его. В тот момент федералы обнаружили весь контент, который он хранил в iCloud.
Apple продолжает работать, несмотря на разногласия
Apple недавно объявила о планах по внедрению системы, предназначенной для обнаруживать материалы сексуального насилия над детьми в iCloud и предоставить отчет в Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC).
Система не сканирует изображения из учетной записи iCloud пользователя. Вместо этого он проверяет хэши (идентификаторы) изображений, хранящихся в iCloud, на соответствие известным хешам CSAM, предоставленным организациями по безопасности детей. .
Несмотря на негативную реакцию, Apple продолжает реализацию своих планов по дебюту системы обнаружения CSAM. Поддерживает, что платформа продолжит сохранять конфиденциальность пользователей, у которых нет коллекций CSAM в своих учетных записях iCloud.