ظاهراً اپل تصمیم به لغو پروژه شناسایی سواستفاده جنسی از کودکان گرفته است. غول فناوری ساکن کوپرتینو جهان در این زمینه یک بیانیه صادر کرد.
لغو پروژه شناسایی سواستفاده جنسی از کودکان توسط اپل تأیید شد. این شرکت نخست در آگوست سال 2021 از برنامه هدفمند خود برای هرچه بهتر ایمنی کودکان رونمایی کرد. اپل از سه ویژگی معرفی شده، به دو ویژگی جامه عمل پوشاند ولی ویژگی شناسایی سواستفاده جنسی از کودکان (CSAM) را عملی نکرد.
اپل قبل از لغو کلی پروژه (CSAM)، ابتدا این پروژه را با مشورت «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» یک سال به تعویق انداخت ولی در نهایت موفق نشد آن را عملی کند و امروز نیز به طور کلی CSAM را به دست فراموشی سپرد.
بیشتر بخوانید: جبههبندی شرکتهای فناوری علیه یکدیگر ؛ همه ناراضیان از اپل حالا کنار ایلان ماسک هستند!
لغو پروژه شناسایی سواستفاده جنسی از کودکان توسط اپل
بر اساس بیانیهای که با WIRED بهاشتراک گذاشته شده است، اپل امروز خبر از لغو پروژه شناسایی سواستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره میشود، داد.
بیانیه کامل اپل به شرح زیر است:
پس از مشاوره گسترده با کارشناسان برای جمعآوری بازخورد در مورد طرحهای حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایهگذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیقتر میکنیم. همچنین تصمیم گرفتهایم تا CSAM را متوقف کنیم. کودکان را میتوان بدون استفاده از اطلاعات شخصی توسط شرکتها محافظت کرد و ما به همکاری با دولتها، حامیان کودکان و سایر شرکتها برای کمک به محافظت از جوانان، حفظ حریم خصوصی آنها و تبدیل اینترنت به مکانی امن برای کودکان و همه ادامه خواهیم داد.
در آگوست 2021، اپل برنامههای خود را برای سه ویژگی جدید ایمنی کودکان اعلام کرد، ازجمله سیستمی برای شناسایی تصاویر CSAM ذخیرهشده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکسهای غیراخلاقی جنسی را در برنامه پیامها محو میکند و منابع سوءاستفاده از کودکان. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالاتمتحده راهاندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما ویژگی تشخیص CSAM هرگز راهاندازی نشد.
اپل در ابتدا اعلام کرد که تشخیص CSAM در بهروزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا میشود، اما این شرکت درنهایت این ویژگی را براساس «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» بهتعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامههای شناسایی CSAM را به کلی کنار گذاشته است.
اپل قول داده بود که سیستم تشخیص CSAM خود را با درنظر گرفتن حریم خصوصی کاربر طراحی کند. این سیستم میتوانست «تطابق روی دستگاه را با استفاده از پایگاهدادهای تصاویر CSAM» از سازمانهای ایمنی کودکان انجام دهد که اپل آن را به مجموعهای غیرقابل خواندن تبدیل میکند که بهطور ایمن در دستگاههای کاربران ذخیره میشود.
اپل قصد داشت حسابهای iCloud را با تصاویر CSAM به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمانهای مجری قانون ایالاتمتحده کار میکند، گزارش کند.
برنامههای اپل توسط طیف گستردهای از افراد و سازمانها ازجمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاهها و حتی برخی از کارمندان اپل موردانتقاد قرار گرفت.
برخی از منتقدان استدلال کردند که این ویژگی یک درپشتی در دستگاهها ایجاد میکند که دولتها یا سازمانهای مجری قانون میتوانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، ازجمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب آن را نشانهگذاری کند.
بیشتر بخوانید:
- تقلای اپل برای حفظ انحصار در اپ استور ؛ تیم کوک دست به دامان جمهوریخواهان کنگره شد!
- حراج نسخهای کمیاب از کامپیوتر اپل وان ؛ قیمت احتمالی؟ صدها هزار دلار!
- پایان عصر خودتنظیمی شرکت های فناوری ؛ دموکراتها علیه ایلان ماسک!
نظر شما در مورد لغو پروژه شناسایی سواستفاده جنسی از کودکان چیست؟ دیدگاه خود را در بخش نظرات با تکراتو به اشتراک بگذارید و اخبار تکنولوژی را با ما دنبال کنید.