متا با توسعه یک پلتفرم جدید امکان حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را محیا کرد. این پلتفرم قطعاً مثبتترین تصمیم شرکت متا در موضوعات اخلاقی خواهد بود.
شرکت متا با همکاری چند شرکت دیگر پلتفرمی را توسعه داده است که امکان حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را محیا کرده است. متا بهعنوان مالک اینستاگرام روزهای پرکاری را سپری میکند و مدام بر روی پلتفرمهای خود کار میکند تا بتواند بهترین تجربه کاربری خود را ارائه کند. یک روز واتساپ، یک روز اینستاگرام و روز دیگر فیسبوک که همه و همه تحت سلطه و حمایت متا به ویژگیهای جدید یا پلتفرمهای رفع نواقص مجهز میشوند.
اما اینبار رویکرد متا متفاوت از قبل است و تصمیم به ایجاد امنیت هرچه بیشتر نوجوانان در فضای مجازی گرفته است. این کار قطعاً با استقبال خانوادههای تمامی نوجوانان مواجه خواهد شد. البته ناگفته نماند که متا علیرغم بهکارگیری این پلتفرم، کمک مالی زیادی نیز در این پروژه برای مرکز ملی کودکان گمشده و استثمارشده (NCMEC) درنظر گرفته است.
بیشتر بخوانید: پیش بینی درآمد 1.7 میلیارد دلاری متا از تیک آبی پولی اینستاگرام و فیسبوک
متا حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را ممکن ساخت
مرکز ملی کودکان گمشده و استثمارشده (NCMEC) پلتفرم جدیدی برای حذف تصاویری که در آنها از افراد زیر سن قانونی سوءاستفادهی جنسی میشود، معرفی کرده است. متا (شرکت مادر اینستاگرام و واتساپ) در بیانیهای میگوید به NCMEC برای راهاندازی ابزار رایگان Take It Down کمک مالی کرده است.
سرویس جدید مرکز NCMEC به کاربران امکان میدهد که بهصورت ناشناس تصاویر یا ویدیوهایی را که در آنها افراد زیر سن قانونی «بهصورت برهنه یا نیمهبرهنه دیده میشوند یا از آنها سوءاستفادهی جنسی میشود»، از پلتفرمهای آنلاین حذف کنند. از طریق این ابزار میتوان جلوی انتشار مجدد تصاویر و ویدیوها را گرفت.
متا میگوید:
فیسبوک و اینستاگرام (بههمراه پیامرسان فیسبوک مسنجر و بخش دایرکت اینستاگرام) از ابزار Take It Down پشتیبانی میکنند. در بین فهرست پلتفرمهای تحت پشتیبانی نام سرویسهای دیگری مثل OnlyFans و Yubo و سایتهای غیراخلاقی نیز دیده میشود.
افراد زیر سن قانونی میتوانند با مراجعه به پلتفرم Take It Down تصاویر و ویدیوهای خود را گزارش کنند. NCMEC میگوید: «این امکان برای افراد بزرگسالی که تصاویر و ویدیوهای دوران زیر ۱۸ سالگی آنها پخش شده نیز فراهم است. والدین و بزرگسالان مورداعتماد نیز میتوانند تصاویر و ویدیوهای افراد زیر ۱۸ سال را گزارش و آنها را حذف کنند.»
بر اساس گزارش ورج، کاربرانی که به دنبال حذف عکس یا ویدیویی به خصوص هستند، باید آن محتوا را روی دستگاه خود داشته باشند. عکس یا فیلم موردبحث در فرآیند درخواست حذف محتوا ثبت نمیشود و به همین دلیل، کاملا خصوصی باقی میماند.
NCMEC از عکس یا فیلم حاوی محتوای غیراخلاقی برای ساخت “هش” استفاده میکند. هش، نوعی اثرانگشت دیجیتالی منحصربهفرد است که به هر عکس یا ویدیو نسبت داده میشود. کاربر میتواند این هش را در اختیار پلتفرمها قرار دهد تا آنها برای حذف محتوا اقدام کنند.
مدیرعامل NCMEC میگوید:
ما سیستم جدید را به این دلیل خلق کردیم که بسیاری از کودکان با این شرایط ناامیدکننده روبهرو هستند. امیدواریم که کودکان از وجود این سرویس مطلع شوند و احساس آرامش کنند که ابزارهایی برای حذف این تصاویر وجود دارد. NCMEC اینجا است که به آنها کمک کند.
Take It Down با سرویس StopNCII سازگاری دارد، سرویسی که در سال ۲۰۲۱ با هدف جلوگیری از پخش تصاویر و فیلمهای غیراخلاقی افراد بالای ۱۸ سال بدون جلب رضایت آنها، راهاندازی شد. StopNCII به شیوهای مشابه از هش برای شناسایی و حذف محتواهای غیراخلاقی در فیسبوک، اینستاگرام، تیک تاک و بامبل استفاده میکند.
متا افزونبر اطلاعرسانی دربارهی مشارکت در پروژهی جدید NCMEC، میگوید: «قابلیتهای حریم خصوصی جدیدی برای اینستاگرام و فیسبوک منتشر کرده است تا از افراد زیر ۱۸ سال که مشغول استفاده از این پلتفرمها هستند محافظت کند.»
ازاینپس نوجوانان به هنگام بلاک کردن حساب افراد بزرگسالی که مشکوک به رفتار غیراخلاقی هستند، نوتیفیکیشنی دریافت میکنند که به آنها میگوید حساب را به ادمینهای اینستاگرام گزارش کنند. همچنین افراد بزرگسالی که پیشتر توسط نوجوانان بلاک شدهاند، گزینهی Message را در حساب اینستاگرام افراد نوجوان نخواهند دید. متا همچنین تنظیمات حریم خصوصی سختگیرانهتری برای کاربران زیر ۱۶ سال (یا در برخی کشورها زیر ۱۸ سال) در فیسبوک اعمال میکند.
سایر پلتفرمهایی که در پروژهی جدید NCMEC مشارکت کردهاند، بهطور مجزا اقداماتی برای جلوگیری از پخش تصاویر غیراخلاقی افراد زیر ۱۸ سال انجام دادهاند. Yubo، شبکهی اجتماعی فرانسوی، ابزارهای مدیریتی جدیدی بر پایهی هوش مصنوعی دارد که میتوانند محتواهای جنسی را شناسایی کنند.
یک گزارش در سال ۲۰۲۱ نشان داد که کودکان به راحتی میتوانند سیستم بررسی سن پلتفرم OnlyFans را دور بزنند. در همان سال ۳۴ قربانی پخش عکس و فیلم جنسی، از یکی از سایتهای غیر اخلاقی شکایت کردند. قربانیان گفتند وبسایت موردبحث بهطور آگاهانه از ویدیوهایی که حاوی صحنههای سوءاستفادهی جنسی از کودکان و تجاوز بودهاند، درآمد کسب کرده است. گزارشی دیگر ادعا کرد Yubo بستری برای برقراری ارتباط با افراد زیر ۱۸ سال و تجاوز به آنها برای سوءاستفادهگران جنسی فراهم کرده است.
بیشتر بخوانید:
- امکان استفاده از GIF در بخش کامنت اینستاگرام فراهم شد
- پلتفرم خرید اینستاگرامی چرخ رسما معرفی شد
- ورود متا به رقابت حوزه هوش مصنوعی با مدل زبانی LLaMA
دیدگاه شما درباره حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام چیست؟ نظرات خود را در بخش کامنتها در میان گذاشته و اخبار تکنولوژی را با ما دنبال کنید.