অ্যাপলের নতুন শিশু-বিরোধী পর্নোগ্রাফি সিস্টেম কীভাবে কাজ করে (এবং এটি কীভাবে কাজ করে না)

একজন নাবালিকার ফেসবুক অ্যাকাউন্ট বন্ধ করুন

অ্যাপল নতুন পদক্ষেপের ঘোষণা দিয়েছে আপনার শিশু সুরক্ষা ব্যবস্থার উন্নতি করুন এবং শিশু পর্নোগ্রাফির বিরুদ্ধে লড়াই করুন। এই নতুন ব্যবস্থাগুলি কীভাবে কাজ করে এবং কী করে না তা আমরা ব্যাখ্যা করি।

অ্যাপল যোগ করেছে নতুন ব্যবস্থা শিশু নিরাপত্তা বিশেষজ্ঞদের সহযোগিতায় শিশু যৌন নিপীড়ন সামগ্রীর বিস্তার রোধ করতে। এই পরিমাপগুলি তিনটি ভিন্ন বিভাগে বিভক্ত: বার্তা, সিরি এবং ফটো। অপ্রাপ্তবয়স্কদের ডিভাইসে পাঠানো এবং প্রাপ্ত ছবিগুলি বার্তাগুলি স্ক্যান করবে, সিরি অবৈধ সামগ্রী অনুসন্ধানের বিষয়ে সতর্ক করবে এবং শিশু পর্নোগ্রাফি উপাদান সনাক্ত হলে ফটো কর্তৃপক্ষকে অবহিত করবে আমাদের ডিভাইসে। এই ব্যবস্থাগুলি পরিচালনা করা বেশ জটিল, বিশেষ করে যদি আপনি ব্যবহারকারীর গোপনীয়তা বজায় রাখতে চান, এমন একটি চ্যালেঞ্জ যা অ্যাপল বিশ্বাস করে যে এটি কাটিয়ে উঠতে পেরেছে এবং আমরা নীচে ব্যাখ্যা করব।

পোস্ট

স্পেনে এটি খুব বেশি বিস্তৃত নয়, তবে অ্যাপল মেসেজ সিস্টেমটি যুক্তরাষ্ট্রে এবং অন্যান্য দেশে ব্যাপকভাবে ব্যবহৃত হয়। এই কারণেই বার্তাগুলিতে শিশু যৌন সামগ্রীর বিস্তারের নিয়ন্ত্রণ অত্যন্ত গুরুত্বপূর্ণ এবং এই নতুন ব্যবস্থাগুলির অন্যতম স্তম্ভ। যৌনতাপূর্ণ বিষয়বস্তু সহ ছবি পাঠানো বা প্রাপ্ত হলে নতুন ব্যবস্থা শিশু এবং অভিভাবকদের অবহিত করবে। এটি শুধুমাত্র 12 বছর বা তার কম বয়সী শিশুদের ডিভাইসে ঘটবে।, আপনার গৌণ অ্যাকাউন্ট ভালভাবে কনফিগার করা আছে।

যদি কোন অপ্রাপ্তবয়স্ক (12 বছর বা তার কম) অ্যাপলকে "যৌন স্পষ্ট" হিসাবে শ্রেণীবদ্ধ করে এমন একটি ছবি পায়, তা অস্পষ্ট হয়ে যাবে এবং তাদের নাবালককে বোধগম্য ভাষায় পরামর্শ দেওয়া হবে যে ছবিটি তাদের জন্য উপযুক্ত নাও হতে পারে। আপনি যদি এটি দেখার সিদ্ধান্ত নেন (যদি আপনি চয়ন করেন তবে এটি দেখতে পারেন) আপনাকে পরামর্শ দেওয়া হবে যে আপনার বাবা -মাকে জানানো হবে। একই ঘটনা ঘটবে যদি নাবালিকা একটি যৌন ছবি সহ একটি বার্তা পাঠানোর সিদ্ধান্ত নেয়।

এই প্রক্রিয়াটি আইফোনের ভিতরে ঘটে, অ্যাপল কোনো সময় হস্তক্ষেপ করে না। ছবিটি পাঠানোর আগে বা আইফোনে এটি পাওয়ার আগে স্ক্যান করা হয় এবং কৃত্রিম বুদ্ধিমত্তা ব্যবস্থা ব্যবহার করে সিদ্ধান্ত নেওয়া হবে যে এর বিষয়বস্তু ঝুঁকি আছে কি না। বিজ্ঞপ্তি, যদি এটি ঘটে, কেবলমাত্র নাবালকের বাবা -মা (আমরা পুনরাবৃত্তি করি, 12 বছর বা তারও কম) দ্বারা প্রাপ্ত হবে, অ্যাপল বা কর্তৃপক্ষের কেউই এই সত্যের জ্ঞান রাখবে না।

সিরি

অ্যাপলের ভার্চুয়াল অ্যাসিস্ট্যান্টও আপডেট করা হবে শিশু পর্নোগ্রাফির বিরুদ্ধে লড়াই করার জন্য। যদি কেউ এই ধরনের বিষয়বস্তু অনুসন্ধান করে, সিরি তাদের অবহিত করবে যে উপাদানটি অবৈধ, এবং সহায়ক হতে পারে এমন সম্পদও প্রদান করবে, যেমন এই ধরনের বিষয়বস্তুর প্রতিবেদন করার উপায়। আবার পুরো প্রক্রিয়াটি আমাদের নিজস্ব ডিভাইসে সংঘটিত হবে, অ্যাপল বা কোন প্রাসঙ্গিক কর্তৃপক্ষের কাছে আমাদের অনুসন্ধানের বিষয়ে জ্ঞান থাকবে না এবং সিরি আমাদের যে সতর্কবাণীগুলি দেবে তাও জানবে না।

ফটো

নি howসন্দেহে এটি সবচেয়ে গুরুত্বপূর্ণ পরিবর্তন এবং যেটি সবচেয়ে বেশি বিতর্ক সৃষ্টি করেছে, এটি কীভাবে কাজ করবে সে সম্পর্কে ভুল তথ্য দিয়ে। অ্যাপল ঘোষণা করেছে যে আইক্লাউড ব্যবহারকারীদের ক্লাউডে সংরক্ষিত শিশু পর্নোগ্রাফির ছবি সনাক্ত করবে। আমরা যদি এই বক্তব্যের সাথে থাকি, ব্যবহারকারীদের গোপনীয়তাকে সম্মান করার সময় এটি কীভাবে করা যায় তা নিয়ে অনেক সন্দেহ উত্থাপিত হয়। কিন্তু অ্যাপল এটি সম্পর্কে চিন্তা করেছে, এবং এমন একটি সিস্টেম তৈরি করেছে যা আমাদের গোপনীয়তা লঙ্ঘন না করে এটি করতে দেয়।

সবচেয়ে গুরুত্বপূর্ণভাবে, এই তথ্য সহ প্রকাশিত অনেক নিবন্ধ সত্ত্বেও, অ্যাপল শিশু পর্নোগ্রাফি বিষয়বস্তুর জন্য আপনার ছবি স্ক্যান করবে না। তারা আপনাকে অপরাধীর জন্য ভুল করবে না কারণ আপনার বাথটাবে আপনার নগ্ন ছেলে বা মেয়ের ছবি রয়েছে। অ্যাপল যা করতে চলেছে তা হল দেখতে, যদি আপনার কাছে সিএসএএম -এ তালিকাভুক্ত লক্ষ লক্ষ ছবির মধ্যে কোনটি শিশু পর্নোগ্রাফি হিসেবে থাকে।

CSAM কি? "শিশু যৌন নির্যাতন উপাদান" বা শিশু যৌন নির্যাতন উপাদান। এটি শিশু পর্নোগ্রাফি বিষয়বস্তু সহ ফটোগ্রাফের একটি ক্যাটালগ, বিভিন্ন সংস্থা দ্বারা পরিচিত এবং উত্পাদিত এবং যার বিষয়বস্তু ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিএমইসি) দ্বারা নিয়ন্ত্রিত। এই ফটোগ্রাফগুলির প্রত্যেকটির একটি ডিজিটাল স্বাক্ষর, অপরিবর্তনীয়, এবং ব্যবহারকারীর সেই ছবিগুলি আছে কিনা তা জানতে ব্যবহার করা হয়। এটি CSAM এর সাথে আমাদের ফটোগ্রাফের স্বাক্ষরের তুলনা করবে, যদি কাকতালীয় হয় তবেই অ্যালার্ম বন্ধ হয়ে যাবে।

সুতরাং অ্যাপল আমাদের ফটোগ্রাফের মাধ্যমে স্ক্যান করতে যাচ্ছে না যে বিষয়বস্তু যৌন কিনা তা দেখতে, এটি কৃত্রিম বুদ্ধিমত্তা ব্যবহার করতে যাচ্ছে না, এমনকি আমাদের ছবিও দেখতে যাচ্ছে না। এটি শুধুমাত্র প্রতিটি ছবির ডিজিটাল স্বাক্ষর ব্যবহার করবে এবং এটি CSAM- এর অন্তর্ভুক্ত স্বাক্ষরের সাথে তাদের তুলনা করবে এবং শুধুমাত্র কাকতালীয় ক্ষেত্রে এটি আমাদের বিষয়বস্তু পর্যালোচনা করবে। যদি আমার ফটোগুলি ভুল করে অনুপযুক্ত বিষয়বস্তু হিসেবে চিহ্নিত করা হয়? অ্যাপল আশ্বাস দেয় যে এটি কার্যত অসম্ভব, তবে যদি এটি ঘটে থাকে তবে কোনও সমস্যা হবে না। প্রথমত, একটি ম্যাচ যথেষ্ট নয়, বেশ কয়েকটি ম্যাচ থাকতে হবে (আমরা জানি না কতগুলি), এবং যদি সেই সীমা সংখ্যাটি অতিক্রম করা হয় (শুধুমাত্র যদি এটি অতিক্রম করা হয়) অ্যাপল সেই নির্দিষ্ট ছবিগুলি পর্যালোচনা করবে যে তারা প্রকৃতপক্ষে শিশু পর্নোগ্রাফি কিনা কর্তৃপক্ষকে অবহিত করার আগে বিষয়বস্তু বা না।

এই কারণে, এটি প্রয়োজনীয় যে ফটোগ্রাফগুলি আইক্লাউডে সংরক্ষণ করা হয়, কারণ এই পদ্ধতিটি আংশিকভাবে ডিভাইসে ঘটে (ডিজিটাল স্বাক্ষরের তুলনা) কিন্তু যদি ইতিবাচক হয়, আইক্লাউডে ফটো পর্যালোচনা করে অ্যাপল কর্মচারীরা ম্যানুয়াল সামগ্রী পর্যালোচনা করে, যেহেতু তারা কোনোভাবেই আমাদের ডিভাইস অ্যাক্সেস করে না।

আপনার গোপনীয়তা নিয়ে সন্দেহ?

যেকোনো সনাক্তকরণ ব্যবস্থা তার কার্যকারিতা এবং / অথবা গোপনীয়তার প্রতি সম্মান নিয়ে সন্দেহ জাগায়। এটা মনে হতে পারে যে একটি সনাক্তকরণ সিস্টেম সত্যিই কার্যকর হওয়ার জন্য, ব্যবহারকারীর গোপনীয়তা লঙ্ঘন করা আবশ্যক, কিন্তু বাস্তবতা হল অ্যাপল এমন একটি সিস্টেম তৈরি করেছে যাতে আমাদের গোপনীয়তা নিশ্চিত হয়। বার্তা এবং সিরির সনাক্তকরণ পদ্ধতি সন্দেহ জাগায় না, কারণ এটি আমাদের ডিভাইসের মধ্যে ঘটেঅ্যাপল ছাড়া কোন কিছুর জ্ঞান নেই। শুধুমাত্র আইক্লাউডে ফটো শনাক্ত করার সিস্টেম সন্দেহ জাগাতে পারে, কিন্তু বাস্তবতা হল অ্যাপল আমাদের ডেটা শুধু আমাদেরই আছে তা নিশ্চিত করার জন্য অনেক যত্ন নিয়েছে।

কেবলমাত্র একটি ক্ষেত্রে অ্যাপল আইক্লাউডে আমাদের ডেটা অ্যাক্সেস করবে: যদি আমাদের কিছু ফটোগ্রাফের মাধ্যমে অ্যালার্ম বন্ধ হয়ে যায় এবং সেগুলি পর্যালোচনা করে দেখতে হবে যে সেগুলি আসলে অবৈধ বিষয়বস্তু কিনা। ভুলবশত এমন হওয়ার সম্ভাবনা অসাধারণভাবে কম, অসীম। আমি ব্যক্তিগতভাবে বিশ্বাস করি এই অত্যন্ত অসম্ভব ঝুঁকিটি গ্রহণযোগ্য যদি এটি শিশু পর্নোগ্রাফির বিরুদ্ধে লড়াই করতে সাহায্য করে।

আমাদের আইফোন অ্যাক্সেস করার জন্য একটি পিছনের দরজা?

একদম। অ্যাপল আমাদের আইফোনে ডেটা অ্যাক্সেস করার অনুমতি দেয় না। আমাদের আইফোনে যা হয় তা আমাদের আইফোনে থাকে। একমাত্র বিষয় যেখানে আপনি আমাদের ডেটা অ্যাক্সেস করতে পারেন যখন আমরা আইক্লাউডে সংরক্ষিত ফটোগুলি সম্পর্কে কথা বলি, কখনই আমাদের আইফোনে নয়। পেছনের দরজা নেই।

আমি কি এখনও আমার বাচ্চাদের ছবি রাখতে পারি?

সামান্যতম সমস্যা ছাড়াই। আমি এটি বেশ কয়েকবার পুনরাবৃত্তি করেছি কিন্তু আমি এটি আরও একবার বলব: অ্যাপল আপনার ফটো স্ক্যান করবে না যাতে সেগুলোতে শিশু যৌন বিষয়বস্তু আছে কিনা। যদি আপনার বাথটবে আপনার শিশুর ছবি থাকে, তাহলে কোন সমস্যা নেই কারণ এটি অনুপযুক্ত বিষয়বস্তু হিসাবে সনাক্ত করা হবে না। অ্যাপল যা করবে তা হল ইতিমধ্যেই পরিচিত এবং CSAM তালিকাভুক্ত ফটোগ্রাফের শনাক্তকারীদের সন্ধান করা এবং আপনার আইফোনের শনাক্তকারীর সাথে তাদের তুলনা করা, আর কিছুই নয়।


গুগল নিউজে আমাদের অনুসরণ করুন

আপনার মন্তব্য দিন

আপনার ইমেল ঠিকানা প্রকাশিত হবে না। প্রয়োজনীয় ক্ষেত্রগুলি দিয়ে চিহ্নিত করা *

*

*

  1. ডেটার জন্য দায়ী: AB ইন্টারনেট নেটওয়ার্ক 2008 SL
  2. ডেটার উদ্দেশ্য: নিয়ন্ত্রণ স্প্যাম, মন্তব্য পরিচালনা।
  3. আইনীকরণ: আপনার সম্মতি
  4. তথ্য যোগাযোগ: ডেটা আইনি বাধ্যবাধকতা ব্যতীত তৃতীয় পক্ষের কাছে জানানো হবে না।
  5. ডেটা স্টোরেজ: ওসেন্টাস নেটওয়ার্কস (ইইউ) দ্বারা হোস্ট করা ডেটাবেস
  6. অধিকার: যে কোনও সময় আপনি আপনার তথ্য সীমাবদ্ধ করতে, পুনরুদ্ধার করতে এবং মুছতে পারেন।