Apple का नया चाइल्ड पोर्नोग्राफी सिस्टम कैसे काम करता है (और यह कैसे काम नहीं करता है)

एक नाबालिग का फेसबुक अकाउंट बंद करें

Apple ने नए उपायों की घोषणा की है अपनी बाल सुरक्षा प्रणाली में सुधार करें और बाल पोर्नोग्राफी के खिलाफ लड़ाई लड़ें. हम बताते हैं कि ये नए उपाय कैसे काम करते हैं और वे क्या नहीं करते हैं।

Apple ने जोड़ा है नए उपाय बाल यौन शोषण सामग्री के प्रसार का मुकाबला करने के लिए बाल सुरक्षा विशेषज्ञों के सहयोग से। इन मापों को तीन अलग-अलग वर्गों में बांटा गया है: संदेश, सिरी और तस्वीरें। संदेश नाबालिगों के उपकरणों पर भेजी और प्राप्त की गई तस्वीरों को स्कैन करेगा, सिरी अवैध सामग्री की खोज की चेतावनी देगा और बाल अश्लील सामग्री का पता चलने की स्थिति में तस्वीरें अधिकारियों को सूचित करेंगी। हमारे डिवाइस पर। इन उपायों का संचालन काफी जटिल है, खासकर यदि आप उपयोगकर्ता की गोपनीयता बनाए रखना चाहते हैं, तो एक चुनौती जिसे Apple मानता है कि वह दूर हो गया है और जिसे हम नीचे समझाएंगे।

डाक

स्पेन में यह बहुत व्यापक नहीं है, लेकिन संयुक्त राज्य अमेरिका और अन्य देशों में Apple संदेश प्रणाली का व्यापक रूप से उपयोग किया जाता है। इसलिए संदेशों में बाल यौन सामग्री के प्रसार पर नियंत्रण बहुत महत्वपूर्ण है और इन नए उपायों के स्तंभों में से एक रहा है। जब यौन स्पष्ट सामग्री वाली तस्वीरें भेजी या प्राप्त की जाएंगी तो नई प्रणाली बच्चों और माता-पिता को सूचित करेगी। यह केवल 12 वर्ष या उससे कम उम्र के बच्चों के लिए उपकरणों पर होगा।, आपके नाबालिग खाते के साथ अच्छी तरह से कॉन्फ़िगर किया गया है।

यदि एक नाबालिग (12 वर्ष या उससे कम उम्र) को एक तस्वीर प्राप्त होती है जिसे Apple ने "यौन रूप से स्पष्ट" के रूप में वर्गीकृत किया है, तो इसे धुंधला कर दिया जाएगा, और उन्हें नाबालिग को समझने योग्य भाषा में सलाह दी जाएगी कि छवि उनके लिए उपयुक्त नहीं हो सकती है। यदि आप इसे देखने का निर्णय लेते हैं (आप चाहें तो इसे देख सकते हैं) आपको सूचित किया जाएगा कि आपके माता-पिता को सूचित किया जाएगा. ऐसा ही होगा यदि नाबालिग एक संदेश भेजने का फैसला करता है जिसमें एक यौन तस्वीर है।

यह प्रक्रिया iPhone के अंदर होती है, Apple किसी भी समय हस्तक्षेप नहीं करता है. फोटो भेजने से पहले या आईफोन पर प्राप्त होने पर स्कैन किया जाता है, और एक कृत्रिम बुद्धि प्रणाली का उपयोग करके यह तय किया जाएगा कि इसकी सामग्री जोखिम पैदा करती है या नहीं। अधिसूचना, यदि ऐसा होता है, केवल नाबालिग के माता-पिता (हम दोहराते हैं, 12 साल या उससे कम) द्वारा प्राप्त किया जाएगा, न तो ऐप्पल और न ही अधिकारियों को इस तथ्य का कोई ज्ञान होगा।

सिरी

चाइल्ड पोर्नोग्राफी से लड़ने के लिए एपल के वर्चुअल असिस्टेंट को भी अपडेट किया जाएगा। अगर कोई इस प्रकार की सामग्री की खोज करता है, तो सिरी उन्हें सूचित करेगा कि सामग्री अवैध है, और ऐसे संसाधन भी उपलब्ध कराएगी जो मददगार हो सकते हैं, जैसे कि इस प्रकार की सामग्री की रिपोर्ट करने के तरीके। फिर से पूरी प्रक्रिया हमारे अपने डिवाइस पर होगी, न तो Apple और न ही किसी प्रासंगिक प्राधिकारी को हमारी खोजों और सिरी द्वारा हमें दी जाने वाली चेतावनियों के बारे में जानकारी होगी।

तस्वीरें

यह निस्संदेह सबसे महत्वपूर्ण परिवर्तन है और इसने सबसे अधिक विवाद उत्पन्न किया है, इस बारे में गलत जानकारी के साथ कि यह कैसे काम करेगा। Apple ने घोषणा की है कि iCloud उन चाइल्ड पोर्नोग्राफ़ी की छवियों का पता लगाएगा जिन्हें उपयोगकर्ताओं ने क्लाउड में संग्रहीत किया है. अगर हम इस बयान पर कायम रहते हैं तो इस बात को लेकर कई तरह के संदेह पैदा होते हैं कि यूजर्स की प्राइवेसी का सम्मान करते हुए ऐसा कैसे किया जा सकता है. लेकिन ऐप्पल ने इसके बारे में सोचा है, और एक ऐसी प्रणाली तैयार की है जो हमें हमारी गोपनीयता का उल्लंघन किए बिना ऐसा करने की अनुमति देती है।

सबसे महत्वपूर्ण बात यह है कि इस जानकारी के साथ प्रकाशित किए गए कई लेखों के बावजूद, Apple आपकी तस्वीरों को चाइल्ड पोर्नोग्राफ़ी सामग्री के लिए स्कैन नहीं करेगा। वे आपको अपराधी नहीं समझेंगे क्योंकि आपके पास बाथटब में आपके नग्न बेटे या बेटी की तस्वीरें हैं. ऐप्पल क्या करने जा रहा है यह देखने के लिए कि क्या आपके पास सीएसएएम में चाइल्ड पोर्नोग्राफ़ी के रूप में सूचीबद्ध लाखों तस्वीरों में से कोई भी है।

सीएसएएम क्या है? "बाल यौन शोषण सामग्री" या बाल यौन शोषण सामग्री। यह चाइल्ड पोर्नोग्राफ़ी सामग्री के साथ तस्वीरों की एक सूची है, जिसे विभिन्न निकायों द्वारा जाना और निर्मित किया जाता है और जिनकी सामग्री को नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (NCMEC) द्वारा नियंत्रित किया जाता है। इन तस्वीरों में से प्रत्येक में एक डिजिटल हस्ताक्षर है, अपरिवर्तनीय है, और ठीक उसी का उपयोग यह जानने के लिए किया जाता है कि उपयोगकर्ता के पास वे तस्वीरें हैं या नहीं. यह हमारी तस्वीरों के हस्ताक्षरों की तुलना CSAM के हस्ताक्षरों से करेगा, अगर संयोग हैं तो ही अलार्म बंद हो जाएगा।

इसलिए Apple यह देखने के लिए हमारी तस्वीरों को स्कैन नहीं करने वाला है कि सामग्री यौन है या नहीं, यह कृत्रिम बुद्धिमत्ता का उपयोग नहीं करने वाली है, यह हमारी तस्वीरों को देखने भी नहीं जा रही है। यह केवल प्रत्येक तस्वीर के डिजिटल हस्ताक्षरों का उपयोग करेगा और यह उनकी तुलना सीएसएएम में शामिल हस्ताक्षरों से करेगा, और केवल संयोग की स्थिति में यह हमारी सामग्री की समीक्षा करेगा। क्या होगा यदि मेरी एक फ़ोटो को ग़लती से अनुपयुक्त सामग्री के रूप में पहचाना जाता है? ऐप्पल ने आश्वासन दिया कि यह व्यावहारिक रूप से असंभव है, लेकिन अगर ऐसा हुआ तो कोई समस्या नहीं होगी। सबसे पहले, एक मैच पर्याप्त नहीं है, कई मैच होने चाहिए (हम नहीं जानते कि कितने), और यदि वह सीमा संख्या पार हो गई है (केवल अगर यह पार हो गई है) तो ऐप्पल उन विशिष्ट तस्वीरों की समीक्षा करेगा ताकि यह आकलन किया जा सके कि क्या वे वास्तव में बाल पोर्नोग्राफ़ी हैं अधिकारियों को सूचित करने से पहले सामग्री या नहीं।

इस कारण से, यह आवश्यक है कि तस्वीरें iCloud में संग्रहीत हों, क्योंकि यह प्रक्रिया आंशिक रूप से डिवाइस पर होती है (डिजिटल हस्ताक्षर की तुलना) लेकिन यदि कोई सकारात्मक है, मैन्युअल सामग्री की समीक्षा Apple कर्मचारियों द्वारा iCloud में फ़ोटो की समीक्षा करके की जाती है, क्योंकि वे हमारे डिवाइस को किसी भी तरह से एक्सेस नहीं करते हैं।

आपकी गोपनीयता के बारे में प्रश्न?

कोई भी पहचान प्रणाली इसकी प्रभावशीलता और / या गोपनीयता के सम्मान के बारे में संदेह पैदा करती है। ऐसा लग सकता है कि किसी डिटेक्शन सिस्टम के वास्तव में प्रभावी होने के लिए, उपयोगकर्ता की गोपनीयता का उल्लंघन किया जाना चाहिए, लेकिन वास्तविकता यह है कि Apple ने एक ऐसा सिस्टम तैयार किया है जिसमें हमारी गोपनीयता की गारंटी है। संदेशों और सिरी की पहचान प्रणाली संदेह पैदा नहीं करती है, क्योंकि यह हमारे डिवाइस के भीतर होता है, Apple के बिना कुछ भी ज्ञान नहीं है। केवल आईक्लाउड में तस्वीरों का पता लगाने की प्रणाली ही संदेह पैदा कर सकती है, लेकिन वास्तविकता यह है कि ऐप्पल ने यह सुनिश्चित करने के लिए बहुत ध्यान रखा है कि हमारा डेटा केवल हमारा है।

केवल एक ही मामला होगा जिसमें Apple हमारे डेटा को iCloud में एक्सेस करेगा: यदि हमारी कुछ तस्वीरों से अलार्म बज जाता है और उन्हें यह देखने के लिए उनकी समीक्षा करनी होगी कि क्या वे वास्तव में अवैध सामग्री हैं। गलती से ऐसा होने की संभावना असाधारण रूप से कम, असीम है. मैं व्यक्तिगत रूप से मानता हूं कि यह अत्यधिक असंभावित जोखिम लेने लायक है यदि यह बाल पोर्नोग्राफ़ी से लड़ने में मदद करता है।

हमारे iPhone तक पहुँचने के लिए एक पिछला दरवाजा?

बिल्कुल। Apple कभी भी हमारे iPhone पर डेटा तक पहुंच की अनुमति नहीं देता है। हमारे iPhone पर जो होता है वह हमारे iPhone पर रहता है. एकमात्र बिंदु जहां आप हमारे डेटा तक पहुंच सकते हैं, जब हम आईक्लाउड में संग्रहीत तस्वीरों के बारे में बात करते हैं, हमारे आईफोन पर कभी नहीं। कोई पिछला दरवाजा नहीं है।

क्या मेरे पास अभी भी अपने बच्चों की तस्वीरें हो सकती हैं?

थोड़ी सी भी समस्या के बिना। मैंने इसे कई बार दोहराया है लेकिन मैं इसे एक बार और कहूंगा: Apple यह देखने के लिए आपकी तस्वीरों को स्कैन नहीं करेगा कि उनमें बाल यौन सामग्री है या नहीं। यदि आपके पास बाथटब में अपने बच्चे की तस्वीरें हैं, तो कोई समस्या नहीं है क्योंकि यह अनुपयुक्त सामग्री के रूप में नहीं पाया जाएगा. Apple क्या करेगा, पहले से ज्ञात और CSAM सूचीबद्ध तस्वीरों के पहचानकर्ताओं की तलाश करेगा और उनकी तुलना आपके iPhone के पहचानकर्ताओं से करेगा, इससे अधिक कुछ नहीं।


Google समाचार पर हमारा अनुसरण करें

अपनी टिप्पणी दर्ज करें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा। आवश्यक फ़ील्ड के साथ चिह्नित कर रहे हैं *

*

*

  1. डेटा के लिए जिम्मेदार: एबी इंटरनेट नेटवर्क 2008 SL
  2. डेटा का उद्देश्य: नियंत्रण स्पैम, टिप्पणी प्रबंधन।
  3. वैधता: आपकी सहमति
  4. डेटा का संचार: डेटा को कानूनी बाध्यता को छोड़कर तीसरे पक्ष को संचार नहीं किया जाएगा।
  5. डेटा संग्रहण: ऑकेंटस नेटवर्क्स (EU) द्वारा होस्ट किया गया डेटाबेस
  6. अधिकार: किसी भी समय आप अपनी जानकारी को सीमित, पुनर्प्राप्त और हटा सकते हैं।