به نظر می رسد که اپل تصمیم گرفته است تا آن را متوقف کند طرح CSAM از بازنگری هایی که قصد داشت در مورد عکس های کاربران خود که به دنبال هرزه نگاری کودکان هستند، اعمال کند. دیگر اثری از این طرح جنجالی در وب سایت اپل نیست.
ما نمی دانیم که آیا در حال حاضر این یک برداشت موقت است، به دنبال بهترین راه برای پیاده سازی سیستم است یا به سادگی پروژه را لغو می کند. واقعیت این است که طرح CSAM از صفحه ایمنی کودک ناپدید شده است وب سایت رسمی از اپل
چند ماهی است که درباره پروژه بحث برانگیز اپل برای افزایش امنیت محتوای دیجیتال دستگاه های خود صحبت می کنیم. نامیده می شود طرح CSAM از اپل
این طرح می خواست از یک سیستم ترکیبی ابتدا خودکار و سپس دستی به نام استفاده کند neuroMatch برای کشف تصاویر کودک آزاری مشکوک در کتابخانه عکس خصوصی کاربران که آنها را در iCloud نگه می دارد.
این سیستم قصد داشت تمام عکسهایی را که کاربر در حساب iCloud خود ذخیره میکند، اسکن دیجیتالی خودکار انجام دهد. اگر نرم افزار سرور یک عکس احتمالی "مشکوک" حاوی پورنوگرافی کودکان را شناسایی کند، به تیمی از بازبینان انسانی تا آنها بررسی کنند.
اگر منتقد مذکور کودک آزاری احتمالی را در تصویر دید، اپل من آن را به مقامات محلی ابلاغ خواهم کرد مربوط. نیت شرکت بدیهی است که خوب بود، اما شرکت خلوت از مردم.
اندکی پس از اینکه اپل برنامه CSAM خود را اعلام کرد، با رگباری از انتقاد از سوی گروه های حفظ حریم خصوصی، گروه های حقوق بشر و سازمان های حفظ حریم خصوصی مواجه شد. حق حریم خصوصی. حتی گروهی از کارکنان شرکت نیز به واکنش منفی پروژه شرکت خود پیوستند.
پروژه متوقف شد، کنار گذاشته نشد
حالا اپل پاک کرده است از صفحه شما ایمنی کودک از وبسایت رسمی آن، هر گونه نشانهای از پروژه CSAM، برنامهریزی شده برای راهاندازی در نسخههای بعدی در iOS 15. با توجه به تازه منتشر شده در آستانهاپل پروژه CSAM را رها نکرده است، اما میخواهد ببیند چگونه میتواند آن را تغییر دهد تا مورد قبول همه مخالفان قرار گیرد. مشکل داره
اولین کسی باشید که نظر