فرادرس


همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

لغو پروژه شناسایی سواستفاده جنسی از کودکان (CSAM) ؛ اپل قید طرح بحث‌برانگیز را زد!

ظاهراً اپل تصمیم به لغو پروژه شناسایی سواستفاده جنسی از کودکان گرفته است. غول فناوری ساکن کوپرتینو جهان در این زمینه یک بیانیه صادر کرد.

لغو پروژه شناسایی سواستفاده جنسی از کودکان توسط اپل تأیید شد. این شرکت نخست در آگوست سال 2021 از برنامه هدفمند خود برای هرچه بهتر ایمنی کودکان رونمایی کرد. اپل از سه ویژگی معرفی شده، به دو ویژگی جامه عمل پوشاند ولی ویژگی شناسایی سواستفاده جنسی از کودکان (CSAM) را عملی نکرد.

کریپتال گلوبال

اپل قبل از لغو کلی پروژه (CSAM)، ابتدا این پروژه را با مشورت «بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران» یک سال به تعویق انداخت ولی در نهایت موفق نشد آن را عملی کند و امروز نیز به طور کلی CSAM را به دست فراموشی سپرد.

بیشتر بخوانید: جبهه‌بندی شرکت‌های فناوری علیه یکدیگر ؛ همه ناراضیان از اپل حالا کنار ایلان ماسک هستند!

لغو پروژه شناسایی سواستفاده جنسی از کودکان توسط اپل

بر اساس بیانیه‌ای که با WIRED به‌اشتراک گذاشته شده است، اپل امروز خبر از لغو پروژه شناسایی سواستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره می‌شود، داد.

بیانیه کامل اپل به شرح زیر است:

پس از مشاوره گسترده با کارشناسان برای جمع‌آوری بازخورد در مورد طرح‌های حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایه‌گذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیق‌تر می‌کنیم. همچنین تصمیم گرفته‌ایم تا CSAM را متوقف کنیم. کودکان را می‌توان بدون استفاده از اطلاعات شخصی توسط شرکت‌ها محافظت کرد و ما به همکاری با دولت‌ها، حامیان کودکان و سایر شرکت‌ها برای کمک به محافظت از جوانان، حفظ حریم خصوصی آن‌ها و تبدیل اینترنت به مکانی امن برای کودکان و همه ادامه خواهیم داد.

لغو پروژه شناسایی سواستفاده جنسی از کودکان

در آگوست 2021، اپل برنامه‌های خود را برای سه ویژگی جدید ایمنی کودکان اعلام کرد، ازجمله سیستمی برای شناسایی تصاویر CSAM ذخیره‌شده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکس‌های غیراخلاقی جنسی را در برنامه پیام‌ها محو می‌کند و منابع سوءاستفاده از کودکان. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالات‌متحده راه‌اندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما ویژگی تشخیص CSAM هرگز راه‌اندازی نشد.

اپل در ابتدا اعلام کرد که تشخیص CSAM در به‌روزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا می‌شود، اما این شرکت درنهایت این ویژگی را براساس «بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران» به‌تعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامه‌های شناسایی CSAM را به کلی کنار گذاشته است.

لغو پروژه شناسایی سواستفاده جنسی از کودکان

اپل قول داده بود که سیستم تشخیص CSAM خود را با درنظر گرفتن حریم خصوصی کاربر طراحی کند. این سیستم می‌توانست «تطابق روی دستگاه را با استفاده از پایگاه‌داده‌ای تصاویر CSAM» از سازمان‌های ایمنی کودکان انجام دهد که اپل آن را به مجموعه‌ای غیرقابل خواندن تبدیل می‌کند که به‌طور ایمن در دستگاه‌های کاربران ذخیره می‌شود.

اپل قصد داشت حساب‌های iCloud را با تصاویر CSAM به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمان‌های مجری قانون ایالات‌متحده کار می‌کند، گزارش کند.

برنامه‌های اپل توسط طیف گسترده‌ای از افراد و سازمان‌ها ازجمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروه‌های سیاست‌گذاری، محققان دانشگاه‌ها و حتی برخی از کارمندان اپل موردانتقاد قرار گرفت.

برخی از منتقدان استدلال کردند که این ویژگی یک درپشتی در دستگاه‌ها ایجاد می‌کند که دولت‌ها یا سازمان‌های مجری قانون می‌توانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، ازجمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب آن را نشانه‌گذاری کند.

بیشتر بخوانید:

نظر شما در مورد لغو پروژه شناسایی سواستفاده جنسی از کودکان چیست؟ دیدگاه خود را در بخش نظرات با تکراتو به اشتراک بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |





ارسال نظر