अलीकडे हा वाद क्यूपर्टिनो कंपनीच्या कार्यालयांवर स्लॅबसारखा पडला आहे, त्याचे कारण आहे csam, संभाव्य पीडितांचे संरक्षण करण्यासाठी तंत्रज्ञानाच्या कंपन्या त्यांच्या चाईल्ड पोर्नोग्राफीच्या शोधात करतात याचा मागोवा घेतला जातो.
Appleपलने चेतावणी दिली की तिचा चाईल्ड पोर्नोग्राफी ट्रॅकिंग प्रोटोकॉल आयक्लॉड फोटोंमध्ये काम करत नाही परंतु वर्षानुवर्षे मेलमध्ये आहे. खरं तर, ही एक प्रथा आहे जी इतर अनेक कंपन्या आधीच पार पाडत आहेत आणि या गेल्या काळात काही फोड उठल्यासारखे दिसत नाही, CSAM प्रोटोकॉलचे काय होत आहे?
खरं तर, Apple ने पुष्टी केली आहे की ते कमीतकमी तीन वर्षांपासून iCloud Mail ची सामग्री बाल पोर्नोग्राफीच्या शोधात आणि सुरक्षेच्या कारणास्तव स्कॅन करत आहे, उदाहरणार्थ, Google ने जीमेलमध्ये बर्याच वर्षांपासून केले आहे. तथापि, त्यांनी स्पष्ट केले आहे की ही "स्कॅनिंग" प्रणाली iCloud फोटोंवर (क्षणभर) चालविली जात नाही.
कोणत्याही प्रकारे, हे "क्रॉल" आमच्या डिव्हाइसच्या भौतिक स्मृतीमध्ये साठवलेल्या छायाचित्रांवर त्याचा परिणाम होत नाही, परंतु केवळ त्यामध्ये जे iCloud सर्व्हरद्वारे जातात किंवा मेलद्वारे पाठवले जातात.
Abuseपल बाल शोषण सामग्री शोधण्यासाठी आणि अहवाल देण्यासाठी प्रतिमा विश्लेषण आणि शोध तंत्रज्ञान वापरते. आमची प्रणाली प्रगत इलेक्ट्रॉनिक स्वाक्षरी वापरते.
Usपलची स्कॅनिंग सिस्टीम कशी कार्य करते याबद्दल हे आम्हाला काहीच सांगत नाही, तथापि, जोपर्यंत आपण या प्रकारच्या गुन्हेगारी कार्यात सहभागी होत नाही, Appleपलच्या सर्व्हरवर बाल अश्लीलता ओळखण्यासाठी अल्गोरिदममध्ये काय समस्या आहे? दरम्यान, युनायटेड स्टेट्स ऑफ अमेरिका मध्ये मोठ्या चिंतेचे वाटते असे या समस्येबाबत दिवसेंदिवस वाद सुरू आहे.