لا تفحص Apple الصور بحثًا عن المواد الإباحية المتعلقة بالأطفال ، ولكن البريد يقوم بذلك

في الآونة الأخيرة ، وقع الجدل مثل لوح على مكاتب شركة كوبرتينو ، والسبب هو CSAM ، كما يُعرف التتبع الذي تقوم به شركات التكنولوجيا لخدماتها بحثًا عن المواد الإباحية للأطفال من أجل حماية الضحايا المحتملين.

تحذر Apple من أن بروتوكول تتبع المواد الإباحية للأطفال لا يعمل في iCloud Photos ولكنه موجود في Mail لسنوات. في الواقع ، إنها ممارسة تنفذها بالفعل العديد من الشركات الأخرى ولا يبدو أنها أثارت أي نفطة خلال هذه الأوقات الماضية ، فما الذي يحدث مع بروتوكولات CSAM؟

في الواقع ، أكدت شركة Apple أنها تقوم بفحص محتوى iCloud Mail لمدة ثلاث سنوات على الأقل بحثًا عن المواد الإباحية للأطفال ولأسباب أمنية ، وهو أمر ، على سبيل المثال ، قامت به Google لسنوات عديدة في Gmail. ومع ذلك ، فقد رأوا أنه من المناسب توضيح أن نظام "المسح" هذا لا يتم تنفيذه (في الوقت الحالي) على صور iCloud.

في كلتا الحالتين ، هذا "الزحف" لا يؤثر على الصور الموجودة في الذاكرة المادية لجهازنا ، ولكن فقط في تلك التي تمر عبر خوادم iCloud أو يتم إرسالها عبر البريد.

تستخدم Apple تحليل الصور وتقنية البحث للعثور على محتوى مسيء للأطفال والإبلاغ عنه. يستخدم نظامنا التوقيعات الإلكترونية المتقدمة.

يخبرنا هذا القليل أو لا شيء عن كيفية عمل نظام المسح من Apple ، ومع ذلك ، إلا إذا كنت مشاركًا في هذا النوع من النشاط الإجرامي ، ما هي مشكلة الخوارزمية التي تحدد المواد الإباحية للأطفال على خوادم Apple؟ في غضون ذلك ، لا يزال الجدل هو النظام السائد اليوم بشأن هذه المسألة التي يبدو أنها مصدر قلق كبير في الولايات المتحدة الأمريكية.


تابعونا على أخبار جوجل

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها ب *

*

*

  1. المسؤول عن البيانات: AB Internet Networks 2008 SL
  2. الغرض من البيانات: التحكم في الرسائل الاقتحامية ، وإدارة التعليقات.
  3. الشرعية: موافقتك
  4. توصيل البيانات: لن يتم إرسال البيانات إلى أطراف ثالثة إلا بموجب التزام قانوني.
  5. تخزين البيانات: قاعدة البيانات التي تستضيفها شركة Occentus Networks (الاتحاد الأوروبي)
  6. الحقوق: يمكنك في أي وقت تقييد معلوماتك واستعادتها وحذفها.