Apple өз жұмысын тоқтатуды шешкен сияқты CSAM жоспары ол балалар порнографиясын іздейтін пайдаланушылардың фотосуреттерін енгізуді жоспарлаған түзетулер туралы. Apple веб-сайтында даулы жоспардың ізі де жоқ.
Қазіргі уақытта бұл жүйені енгізудің оңтайлы жолын іздеп, уақытша бас тарту ма, әлде жай ғана жобаны тоқтата ма, білмейміз. CSAM жоспары балалардың қауіпсіздігі бетінен жоғалып кеткен ресми сайт Apple-дің.
Біз бірнеше ай бойы Apple өз құрылғыларының цифрлық мазмұнының қауіпсіздігін арттыру үшін ойлаған даулы жоба туралы айтып жатырмыз. деп аталады CSAM жоспары Apple-дің.
Бұл жоспар алдымен автоматты, содан кейін қолмен аталатын біріктірілген жүйені пайдаланғысы келді neuralMatch iCloud-та сақтайтын пайдаланушылардың жеке фото кітапханаларындағы күдікті балаларды қорлау суреттерін табу.
Жүйе пайдаланушы iCloud тіркелгісінде сақтайтын барлық фотосуреттерді автоматты түрде сандық сканерлеуді көздеді. Егер серверлік бағдарламалық құрал балалар порнографиясы бар ықтимал «күмәнді» фотосуретті анықтаса, ол топты ескертеді. адам рецензенттері тексеру үшін.
Егер аталған шолушы суретте балаға зорлық-зомбылық көрсету мүмкіндігін көрсе, Apple Оны жергілікті билікке жеткізер едім қатысты. Компанияның ниеті жақсы болғанымен, компанияныкі құпиялылық халықтың.
Apple өзінің CSAM жоспарын жариялағаннан кейін көп ұзамай ол құпиялылық топтары, құқықтар топтары және құпиялылық ұйымдары тарапынан көптеген сынға ұшырады. Құпиялылық құқығы. Тіпті компания қызметкерлерінің кейбір топтары өз компанияларының жобасының теріс реакциясына қосылды.
Жоба тоқтатылды, жойылған жоқ
Енді алма өшіріп тастады сіздің парағыңыздан Балалардың қауіпсіздігі оның ресми сайтынан болашақ нұсқасында іске қосылуы жоспарланған CSAM жобасының кез келген көрсеткіші IOS 15. Жаңа ғана жарияланған мәліметтер бойынша VergeApple CSAM жобасынан бас тартқан жоқ, бірақ оны барлық қарсылық білдірушілер қабылдайтындай етіп қалай өзгертуге болатынын көргісі келеді. Бұл қиын.
Бірінші болып пікір айтыңыз