;
coinex

توسعه پلتفرمی برای حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام

متا با توسعه یک پلتفرم جدید امکان حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را محیا کرد. این پلتفرم قطعاً مثبت‌ترین تصمیم شرکت متا در موضوعات اخلاقی خواهد بود.

شرکت متا با همکاری چند شرکت دیگر پلتفرمی را توسعه داده است که امکان حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را محیا کرده است. متا به‌عنوان مالک اینستاگرام روزهای پرکاری را سپری می‌کند و مدام بر روی پلتفرم‌های خود کار می‌کند تا بتواند بهترین تجربه کاربری خود را ارائه کند. یک روز واتس‌اپ، یک روز اینستاگرام و روز دیگر فیس‌بوک که همه و همه تحت سلطه و حمایت متا به ویژگی‌های جدید یا پلتفرم‌های رفع نواقص مجهز می‌شوند.

اما این‌بار رویکرد متا متفاوت از قبل است و تصمیم به ایجاد امنیت هرچه بیشتر نوجوانان در فضای مجازی گرفته است. این کار قطعاً با استقبال خانواده‌های تمامی نوجوانان مواجه خواهد شد. البته ناگفته نماند که متا علی‌رغم به‌کارگیری این پلتفرم، کمک مالی زیادی نیز در این پروژه برای مرکز ملی کودکان گم‌شده و استثمارشده (NCMEC) درنظر گرفته است.

بیشتر بخوانید: پیش بینی درآمد 1.7 میلیارد دلاری متا از تیک آبی پولی اینستاگرام و فیسبوک

متا حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را ممکن ساخت

مرکز ملی کودکان گم‌شده و استثمارشده (NCMEC) پلتفرم جدیدی برای حذف تصاویری که در آن‌ها از افراد زیر سن قانونی سوءاستفاده‌ی جنسی می‌شود، معرفی کرده است. متا (شرکت مادر اینستاگرام و واتساپ) در بیانیه‌ای می‌گوید به NCMEC برای راه‌اندازی ابزار رایگان Take It Down کمک مالی کرده است.

سرویس جدید مرکز NCMEC به کاربران امکان می‌‌دهد که به‌صورت ناشناس تصاویر یا ویدیوهایی را که در آن‌ها افراد زیر سن قانونی «به‌صورت برهنه یا نیمه‌برهنه دیده می‌شوند یا از آن‌ها سوءاستفاده‌ی جنسی می‌شود»، از پلتفرم‌های آنلاین حذف کنند. از طریق این ابزار می‌توان جلوی انتشار مجدد تصاویر و ویدیوها را گرفت.

متا می‌گوید:

فیسبوک و اینستاگرام (به‌همراه پیام‌رسان فیسبوک مسنجر و بخش دایرکت اینستاگرام) از ابزار Take It Down پشتیبانی می‌کنند. در بین فهرست پلتفرم‌های تحت پشتیبانی نام سرویس‌های دیگری مثل OnlyFans و Yubo و سایت‌های غیراخلاقی نیز دیده می‌شود.

متا حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را ممکن ساخت

افراد زیر سن قانونی می‌توانند با مراجعه به پلتفرم Take It Down تصاویر و ویدیوهای خود را گزارش کنند. NCMEC می‌گوید: «این امکان برای افراد بزرگسالی که تصاویر و ویدیوهای دوران زیر ۱۸ سالگی آن‌ها پخش شده نیز فراهم است. والدین و بزرگ‌سالان مورداعتماد نیز می‌توانند تصاویر و ویدیوهای افراد زیر ۱۸ سال را گزارش و آن‌ها را حذف کنند.»

بر اساس گزارش ورج، کاربرانی که به دنبال حذف عکس یا ویدیویی به خصوص هستند، باید آن محتوا را روی دستگاه خود داشته باشند. عکس یا فیلم موردبحث در فرآیند درخواست حذف محتوا ثبت نمی‌شود و به همین دلیل، کاملا خصوصی باقی می‌ماند.

NCMEC از عکس یا فیلم حاوی محتوای غیراخلاقی برای ساخت “هش” استفاده می‌کند. هش، نوعی اثرانگشت دیجیتالی منحصربه‌فرد است که به هر عکس یا ویدیو نسبت داده می‌شود. کاربر می‌تواند این هش را در اختیار پلتفرم‌ها قرار دهد تا آن‌ها برای حذف محتوا اقدام کنند.

مدیرعامل NCMEC می‌گوید:

ما سیستم جدید را به این دلیل خلق کردیم که بسیاری از کودکان با این شرایط ناامیدکننده روبه‌رو هستند. امیدواریم که کودکان از وجود این سرویس مطلع شوند و احساس آرامش کنند که ابزارهایی برای حذف این تصاویر وجود دارد. NCMEC اینجا است که به آن‌ها کمک کند.

Take It Down با سرویس StopNCII سازگاری دارد، سرویسی که در سال ۲۰۲۱ با هدف جلوگیری از پخش تصاویر و فیلم‌های غیراخلاقی افراد بالای ۱۸ سال بدون جلب رضایت آن‌ها، راه‌اندازی شد. StopNCII به شیوه‌ای مشابه از هش برای شناسایی و حذف محتواهای غیراخلاقی در فیسبوک، اینستاگرام، تیک تاک و بامبل استفاده می‌کند.

متا افزون‌بر اطلاع‌رسانی درباره‌ی مشارکت در پروژه‌ی جدید NCMEC، می‌گوید: «قابلیت‌های حریم خصوصی جدیدی برای اینستاگرام و فیسبوک منتشر کرده است تا از افراد زیر ۱۸ سال که مشغول استفاده از این پلتفرم‌ها هستند محافظت کند.»

متا حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام را ممکن ساخت

ازاین‌پس نوجوانان به هنگام بلاک کردن حساب افراد بزرگ‌سالی که مشکوک به رفتار غیراخلاقی هستند، نوتیفیکیشنی دریافت می‌کنند که به آن‌ها می‌گوید حساب را به ادمین‌های اینستاگرام گزارش کنند. همچنین افراد بزرگسالی که پیش‌تر توسط نوجوانان بلاک شده‌اند، گزینه‌ی Message را در حساب اینستاگرام افراد نوجوان نخواهند دید. متا همچنین تنظیمات حریم خصوصی سخت‌گیرانه‌تری برای کاربران زیر ۱۶ سال (یا در برخی کشورها زیر ۱۸ سال) در فیسبوک اعمال می‌کند.

سایر پلتفرم‌هایی که در پروژه‌ی جدید NCMEC مشارکت کرده‌اند، به‌طور مجزا اقداماتی برای جلوگیری از پخش تصاویر غیراخلاقی افراد زیر ۱۸ سال انجام داده‌اند. Yubo، شبکه‌ی اجتماعی فرانسوی، ابزارهای مدیریتی جدیدی بر پایه‌ی هوش مصنوعی دارد که می‌توانند محتواهای جنسی را شناسایی کنند.

یک گزارش در سال ۲۰۲۱ نشان داد که کودکان به راحتی می‌توانند سیستم بررسی سن پلتفرم OnlyFans را دور بزنند. در همان سال ۳۴ قربانی پخش عکس و فیلم جنسی، از یکی از سایت‌های غیر اخلاقی شکایت کردند. قربانیان گفتند وب‌سایت موردبحث به‌طور آگاهانه از ویدیوهایی که حاوی صحنه‌های سوءاستفاده‌ی جنسی از کودکان و تجاوز بوده‌اند، درآمد کسب کرده است. گزارشی دیگر ادعا کرد Yubo بستری برای برقراری ارتباط با افراد زیر ۱۸ سال و تجاوز به آن‌ها برای سوءاستفاده‌گران جنسی فراهم کرده است.

بیشتر بخوانید:

دیدگاه شما درباره حذف تصاویر غیراخلاقی نوجوانان از اینستاگرام چیست؟ نظرات خود را در بخش کامنت‌ها در میان گذاشته و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر