Apple ची नवीन बाल-विरोधी पोर्नोग्राफी प्रणाली कशी कार्य करते (आणि ती कशी कार्य करत नाही)

एखाद्या अल्पवयीन मुलीचे फेसबुक खाते बंद करा

अॅपलने यासाठी नवीन उपाययोजना जाहीर केल्या आहेत आपली बाल संरक्षण प्रणाली सुधारित करा आणि बाल अश्लीलतेविरूद्ध लढा द्या. हे नवीन उपाय कसे कार्य करतात आणि ते काय करत नाहीत हे आम्ही स्पष्ट करतो.

Appleपल जोडला आहे नवीन उपाय बाल लैंगिक अत्याचाराच्या साहित्याचा प्रसार रोखण्यासाठी बाल सुरक्षा तज्ञांच्या सहकार्याने. हे मोजमाप तीन वेगवेगळ्या विभागांमध्ये विभागलेले आहेत: संदेश, सिरी आणि फोटो. संदेश अल्पवयीन मुलांच्या डिव्हाइसवर पाठवलेले आणि प्राप्त केलेले फोटो स्कॅन करतील, सिरी बेकायदेशीर सामग्रीच्या शोधाबद्दल चेतावणी देईल आणि बाल पोर्नोग्राफी सामग्री आढळल्यास फोटो अधिकाऱ्यांना सूचित करतील. आमच्या डिव्हाइसवर. या उपाययोजनांचे कार्य अत्यंत क्लिष्ट आहे, विशेषत: जर आपण वापरकर्त्याची गोपनीयता राखू इच्छित असाल, तर Appleपलला वाटते की हे आव्हान पेलण्यात यशस्वी झाले आहे आणि ते आम्ही खाली स्पष्ट करू.

संदेश

स्पेनमध्ये ते फार व्यापक नाही, परंतु Appleपल संदेश प्रणाली युनायटेड स्टेट्स आणि इतर देशांमध्ये मोठ्या प्रमाणावर वापरली जाते. म्हणूनच संदेशांमध्ये बाल लैंगिक सामग्रीच्या प्रसाराचे नियंत्रण अत्यंत महत्वाचे आहे आणि या नवीन उपायांच्या स्तंभांपैकी एक आहे. जेव्हा लैंगिक सुस्पष्ट सामग्रीसह छायाचित्रे पाठवली किंवा प्राप्त केली जातात तेव्हा नवीन प्रणाली मुले आणि पालकांना सूचित करेल. हे केवळ 12 वर्षे किंवा त्यापेक्षा कमी वयाच्या मुलांसाठी असलेल्या डिव्हाइसेसवर होईल., आपल्या किरकोळ खात्यासह चांगले कॉन्फिगर केलेले.

जर अल्पवयीन (12 वर्षे किंवा त्यापेक्षा कमी) Appleपलने "लैंगिक स्पष्ट" म्हणून वर्गीकृत केलेले छायाचित्र प्राप्त केले तर ते अस्पष्ट होईल आणि त्यांना अल्पवयीन लोकांना समजण्यायोग्य भाषेत सूचित केले जाईल की प्रतिमा त्यांच्यासाठी योग्य नसेल. आपण ते पाहण्याचे ठरविल्यास (आपण निवडल्यास ते पाहू शकता) तुम्हाला सूचित केले जाईल की तुमच्या पालकांना सूचित केले जाईल. अल्पवयीनाने लैंगिक छायाचित्र असलेला संदेश पाठवण्याचा निर्णय घेतला तर असेच होईल.

ही प्रक्रिया आयफोनच्या आत होते, Appleपल कोणत्याही वेळी हस्तक्षेप करत नाही. फोटो पाठवण्यापूर्वी किंवा आयफोनवर प्राप्त झाल्यावर तो स्कॅन केला जातो आणि आर्टिफिशियल इंटेलिजन्स सिस्टीम वापरून त्याचा आशय धोकादायक आहे की नाही हे ठरवले जाईल. अधिसूचना, जर ती उद्भवली तर, केवळ अल्पवयीन मुलांच्या पालकांनाच प्राप्त होईल (आम्ही पुनरावृत्ती करतो, 12 वर्षे किंवा त्यापेक्षा कमी), Appleपल किंवा अधिकाऱ्यांना या वस्तुस्थितीचे कोणतेही ज्ञान नसेल.

Siri

चाईल्ड पोर्नोग्राफीशी लढण्यासाठी अॅपलचे व्हर्च्युअल असिस्टंट देखील अपडेट केले जाईल. जर कोणी या प्रकारच्या सामग्रीचा शोध घेत असेल, तर सिरी त्यांना सूचित करेल की सामग्री बेकायदेशीर आहे, आणि मदत करणारी संसाधने देखील प्रदान करेल, जसे की या प्रकारच्या सामग्रीची तक्रार करण्याचे मार्ग. पुन्हा संपूर्ण प्रक्रिया आमच्या स्वतःच्या डिव्हाइसवर होईल, Appleपल किंवा कोणत्याही संबंधित प्राधिकरणाला आमच्या शोधांचे किंवा सिरीने आम्हाला दिलेल्या चेतावण्यांचे ज्ञान असणार नाही.

फोटो

निःसंशयपणे हा सर्वात महत्वाचा बदल आहे आणि ज्याने सर्वात वाद निर्माण केला आहे, तो कसा कार्य करेल याबद्दल चुकीची माहिती देऊन. Apple ने जाहीर केले आहे की iCloud वापरकर्त्यांनी क्लाउडमध्ये साठवलेल्या बाल पोर्नोग्राफीच्या प्रतिमा शोधून काढेल. जर आपण या विधानासह राहिलो तर वापरकर्त्यांच्या गोपनीयतेचा आदर करताना हे कसे केले जाऊ शकते याबद्दल अनेक शंका उपस्थित केल्या जातात. परंतु Apple पलने याबद्दल विचार केला आहे आणि एक अशी प्रणाली तयार केली आहे जी आम्हाला आमच्या गोपनीयतेचे उल्लंघन न करता हे करण्याची परवानगी देते.

सर्वात महत्त्वाचे म्हणजे, आणि या माहितीसह प्रकाशित झालेले अनेक लेख असूनही, Appleपल तुमचे फोटो बाल अश्लील सामग्रीसाठी स्कॅन करणार नाही. ते तुम्हाला गुन्हेगाराची चूक करणार नाहीत कारण तुमच्या बाथटबमध्ये तुमच्या नग्न मुलाचे किंवा मुलीचे फोटो आहेत. Appleपल काय करणार आहे ते पाहण्यासाठी आपल्याकडे सीएसएएममध्ये कोट्यवधी फोटोंपैकी कोणतेही बाल पोर्नोग्राफी म्हणून सूचीबद्ध आहेत का ते पहा.

CSAM म्हणजे काय? "बाल लैंगिक अत्याचार साहित्य" किंवा बाल लैंगिक अत्याचार साहित्य. हे बाल पोर्नोग्राफीच्या सामग्रीसह छायाचित्रांचे एक कॅटलॉग आहे, जे विविध संस्थांनी ओळखले आणि तयार केले आहे आणि ज्यांचे आशय नॅशनल सेंटर फॉर मिसिंग आणि एक्सप्लोयटेड चिल्ड्रन (NCMEC) द्वारे नियंत्रित केले जाते. यातील प्रत्येक छायाचित्रात डिजिटल स्वाक्षरी आहे, अपरिवर्तनीय आहे आणि वापरकर्त्याकडे ती छायाचित्रे आहेत की नाही हे जाणून घेण्यासाठी नेमके हेच वापरले जाते. हे आमच्या छायाचित्रांच्या स्वाक्षरीची तुलना सीएसएएमच्या छायाचित्रांशी करेल, जर योगायोग असेल तरच अलार्म बंद होईल.

त्यामुळे अॅपल आमच्या छायाचित्रांद्वारे स्कॅन करणार नाही की सामग्री लैंगिक आहे की नाही, ती कृत्रिम बुद्धिमत्ता वापरणार नाही, ते आमचे फोटो देखील पाहणार नाही. हे केवळ प्रत्येक छायाचित्राच्या डिजिटल स्वाक्षरीचा वापर करेल आणि ते त्यांची तुलना सीएसएएममध्ये समाविष्ट केलेल्या स्वाक्षरींशी करेल आणि केवळ योगायोग झाल्यास ते आमच्या सामग्रीचे पुनरावलोकन करेल. जर माझ्या फोटोंपैकी एक चुकीने अयोग्य सामग्री म्हणून ओळखला गेला तर? Apple पल आश्वासन देते की हे व्यावहारिकदृष्ट्या अशक्य आहे, परंतु जर ते घडले तर कोणतीही अडचण येणार नाही. प्रथम, एक सामना पुरेसा नाही, तेथे अनेक सामने असणे आवश्यक आहे (आम्हाला माहित नाही की किती आहेत), आणि जर ती मर्यादा संख्या ओलांडली गेली असेल (केवळ ती ओलांडली असेल तर) Appleपल त्या विशिष्ट छायाचित्रांचे पुनरावलोकन करेल की ते खरोखरच बाल अश्लीलता आहेत का अधिकार्यांना सूचित करण्यापूर्वी सामग्री किंवा नाही.

या कारणास्तव, छायाचित्रे iCloud मध्ये संग्रहित करणे आवश्यक आहे, कारण ही प्रक्रिया अंशतः डिव्हाइसवर होते (डिजिटल स्वाक्षरीची तुलना) परंतु सकारात्मक असल्यास, आयक्लॉडमधील फोटोंचे पुनरावलोकन करून अॅपल कर्मचाऱ्यांद्वारे मॅन्युअल सामग्री पुनरावलोकन केले जाते, कारण ते आमच्या डिव्हाइसवर कोणत्याही प्रकारे प्रवेश करत नाहीत.

तुमच्या गोपनीयतेबद्दल प्रश्न?

कोणतीही शोध प्रणाली त्याच्या प्रभावीतेबद्दल आणि / किंवा गोपनीयतेबद्दल आदर बद्दल शंका निर्माण करते. असे दिसते की शोध प्रणाली खरोखर प्रभावी होण्यासाठी, वापरकर्त्याच्या गोपनीयतेचे उल्लंघन करणे आवश्यक आहे, परंतु वास्तविकता अशी आहे की Apple पलने एक अशी प्रणाली तयार केली आहे ज्यात आमच्या गोपनीयतेची हमी आहे. संदेश आणि सिरीची शोध प्रणाली शंका उपस्थित करत नाही, कारण ती आपल्या डिव्हाइसमध्ये आढळते, Appleपलला काहीही माहिती नसल्याशिवाय. केवळ iCloud मध्ये फोटो शोधण्याची यंत्रणा शंका उपस्थित करू शकते, परंतु वास्तविकता अशी आहे की आपला डेटा फक्त आमचा आहे याची खात्री करण्यासाठी Apple ने खूप काळजी घेतली आहे.

फक्त एक प्रकरण असेल ज्यामध्ये Apple आपल्या iCloud मध्ये आमच्या डेटामध्ये प्रवेश करेल: जर आमच्या काही फोटोंद्वारे अलार्म बंद झाला आणि त्यांना खरोखरच बेकायदेशीर सामग्री आहे का हे पाहण्यासाठी त्यांचे पुनरावलोकन करावे लागेल. चुकून हे घडण्याची शक्यता विलक्षण कमी, अनंत आहे. माझा वैयक्तिक विश्वास आहे की हा अत्यंत संभाव्य धोका मुलांच्या पोर्नोग्राफीशी लढण्यास मदत करत असल्यास घेण्यासारखे आहे.

आमच्या आयफोनमध्ये प्रवेश करण्यासाठी मागील दरवाजा?

अगदी. अॅपल कधीही आमच्या आयफोनवरील डेटामध्ये प्रवेश करू देत नाही. आमच्या आयफोनवर जे घडते ते आमच्या आयफोनवर राहते. आपण आमच्या डेटामध्ये प्रवेश करू शकता असा एकमेव मुद्दा म्हणजे जेव्हा आम्ही आयक्लॉडमध्ये साठवलेल्या फोटोंबद्दल बोलतो, आमच्या आयफोनवर कधीही नाही. मागचा दरवाजा नाही.

मला अजूनही माझ्या मुलांचे फोटो मिळू शकतात का?

अगदी थोड्या अडचणीशिवाय. मी ते अनेक वेळा पुनरावृत्ती केले आहे परंतु मी ते पुन्हा एकदा सांगेन: Appleपल तुमचे फोटो स्कॅन करणार नाही की त्यात बाल लैंगिक सामग्री आहे का. आपल्याकडे बाथटबमध्ये आपल्या बाळाचे फोटो असल्यास, कोणतीही समस्या नाही कारण ती अयोग्य सामग्री म्हणून शोधली जाणार नाही. Appleपल काय करेल हे आधीच ज्ञात आणि CSAM कॅटलॉग केलेल्या छायाचित्रांच्या ओळखकर्त्यांसाठी शोधणे आणि त्यांची तुलना आपल्या iPhone च्या अभिज्ञापकांशी करणे, आणखी काही नाही.


Google News वर आमचे अनुसरण करा

आपली टिप्पणी द्या

आपला ई-मेल पत्ता प्रकाशित केला जाणार नाही. आवश्यक फील्ड चिन्हांकित केले आहेत *

*

*

  1. डेटासाठी जबाबदार: AB इंटरनेट नेटवर्क 2008 SL
  2. डेटाचा उद्देशः नियंत्रण स्पॅम, टिप्पणी व्यवस्थापन.
  3. कायदे: आपली संमती
  4. डेटा संप्रेषण: कायदेशीर बंधन वगळता डेटा तृतीय पक्षास कळविला जाणार नाही.
  5. डेटा संग्रहण: ओकेन्टस नेटवर्क (EU) द्वारा होस्ट केलेला डेटाबेस
  6. अधिकारः कोणत्याही वेळी आपण आपली माहिती मर्यादित, पुनर्प्राप्त आणि हटवू शकता.