شرکت X، پلتفرم رسانه اجتماعی متعلق به ایلان ماسک، به دلیل استفاده از دادههای کاربران اتحادیه اروپا برای آموزش مدلهای هوش مصنوعی بدون کسب رضایت آنها، با یک سری شکایتهای مربوط به حریم خصوصی مواجه شده است.
در اواخر ماه گذشته، یک کاربر شبکه اجتماعی متوجه شد که X بهصورت پنهانی شروع به پردازش دادههای کاربران اتحادیه اروپا برای آموزش ربات چت هوشمند Grok کرده است. این افشاگری باعث شد تا کمیسیون حفاظت از دادههای ایرلند (DPC)، که نظارت بر رعایت قوانین حفاظت از دادههای عمومی اتحادیه اروپا (GDPR) توسط X را بر عهده دارد، ابراز تعجب کند.
بیشتر بخوانید:
- خرید 40 درصد از سهام دیجیکالا توسط «حرکت اول»
- تپسی به فعالیت سه شرکت زیرمجموعهاش پایان داد؛ تمرکز بیشتر بر توسعه سوپراپلیکیشن
اهمیت GDPR و سوء استفاده از دادههای کاربران اتحادیه اروپا
قوانین GDPR که میتواند نقضهای تأیید شده را با جریمههایی تا 4 درصد از درآمد سالانه جهانی مجازات کند، نیاز دارد که هرگونه استفاده از دادههای شخصی بر مبنای قانونی معتبر باشد.
شکایتهای مطرح شده علیه X که به مقامات حفاظت از دادهها در اتریش، بلژیک، فرانسه، یونان، ایرلند، ایتالیا، هلند، لهستان و اسپانیا ارسال شده است، شرکت را متهم میکنند که بدون کسب رضایت کاربران، پستهای آنها را برای آموزش هوش مصنوعی پردازش کرده است
واکنش به موضوع سوء استفاده از دادههای کاربران اتحادیه اروپا
ماکس شرمس، رئیس سازمان غیردولتی حقوق حریم خصوصی noyb که از این شکایتها حمایت میکند، در بیانیهای گفت: “ما در سالهای گذشته نمونههای بیشماری از اجرای ناکارآمد و ناقص توسط DPC دیدهایم. ما میخواهیم اطمینان حاصل کنیم که X به طور کامل با قوانین اتحادیه اروپا مطابقت دارد که در حداقلترین نیاز، باید رضایت کاربران را در این مورد کسب کند.”
اقدامات قانونی
کمیسیون حفاظت از دادههای ایرلند قبلاً اقدامی قانونی علیه پردازش دادههای X برای آموزش مدلهای هوش مصنوعی انجام داده و در دادگاه عالی ایرلند درخواست جلوگیری از استفاده از این دادهها را کرده است. اما noyb معتقد است اقدامات DPC تاکنون کافی نبوده، بهخصوص که هیچ راهی برای کاربران X وجود ندارد تا بخواهند دادههای “بلعیده شده” توسط شرکت را حذف کنند. در واکنش به این وضعیت، noyb شکایتهای GDPR را در ایرلند و هفت کشور دیگر ارائه کرده است.
مبنای قانونی استفاده از دادهها
شکایتها علیه X معتقدند که این شرکت مبنای قانونی معتبری برای استفاده از دادههای حدود 60 میلیون نفر در اتحادیه اروپا برای آموزش هوش مصنوعی بدون کسب رضایت آنها ندارد. به نظر میرسد این پلتفرم به مبنایی قانونی تحت عنوان “منافع مشروع” برای پردازشهای مرتبط با هوش مصنوعی متوسل شده است. با این حال کارشناسان حریم خصوصی میگویند که برای این کار نیاز به کسب رضایت کاربران دارد.
ماکس شرمس اظهار کرد: “شرکتهایی که بهطور مستقیم با کاربران تعامل دارند، باید تنها یک پیام بله/خیر را پیش از استفاده از دادههای آنها نمایش دهند. این کار را برای بسیاری از موارد دیگر به طور منظم انجام میدهند، پس به طور قطع امکانپذیر است که این کار را برای آموزش هوش مصنوعی نیز انجام دهند.”
مقایسه با دیگر شرکتها
در ژوئن، متا (فیسبوک) نیز برنامه مشابهی برای پردازش دادههای کاربران به منظور آموزش هوش مصنوعی داشت، اما پس از اینکه noyb از برخی شکایتهای GDPR حمایت کرد و ناظران مداخله کردند، این برنامه را متوقف کرد.
روند جمعآوری دادهها توسط X
به نظر میرسد X بدون اطلاعرسانی به کاربران، به جمعآوری دادههای آنها برای آموزش هوش مصنوعی پرداخته و این روند برای چندین هفته تحت نظر نبوده است. بر اساس گزارش DPC، X بین تاریخهای 7 مه تا 1 اوت دادههای کاربران اتحادیه اروپا را برای آموزش مدلهای هوش مصنوعی پردازش میکرده است.
کاربران X توانستهاند از اواخر ژوئیه به بعد از طریق یک تنظیمات جدید در نسخه وب پلتفرم، از این پردازشها جلوگیری کنند. اما قبل از آن هیچ راهی برای مسدود کردن این پردازشها وجود نداشته و از آن مهمتر، کاربران اغلب از وقوع چنین پردازشهایی مطلع نبودهاند.
این مسئله مهم است زیرا قوانین GDPR به صراحت برای محافظت از اروپاییها از استفادههای پیشبینینشده از اطلاعاتشان که میتواند تأثیراتی بر حقوق و آزادیهای آنها داشته باشد، تدوین شدهاند.
نظر کارشناسان درباره مبنای قانونی X
در بیان دلایل مخالفت با انتخاب مبنای قانونی X، noyb به حکم دادگاه عالی اروپا در تابستان گذشته اشاره کرد، که در رابطه با شکایت رقابتی علیه استفاده متا (فیسبوک) از دادههای کاربران برای هدفگیری تبلیغاتی، قضات حکم دادند که مبنای قانونی “منافع مشروع” برای این مورد معتبر نیست و باید رضایت کاربران کسب شود.
همچنین noyb اشاره میکند که ارائهدهندگان سیستمهای هوش مصنوعی مولد معمولاً ادعا میکنند که قادر به رعایت دیگر الزامات اصلی GDPR، همچون حق فراموشی یا حق دریافت نسخهای از دادههای شخصی، نیستند. چنین نگرانیهایی در شکایات مطرحشده علیه ChatGPT شرکت OpenAI نیز وجود داشتهاند.
بحتهای فراوانی پیرامون جمعآوری دادههای کاربران بدون رضایت صریح آنها شکل گرفته و این شکایتها نگرانیهای جدی درباره حریم خصوصی و نحوه استفاده از اطلاعات شخصی کاربران را مطرح کردهاند. عملکرد درست نهادهای نظارتی و همچنین شفافیت بیشتر در رویههای شرکتهای فناوری میتواند نقش مهمی در حفظ امنیت دادههای کاربران ایفا کند.
بیشتر بخوانید:
ایلان ماسک دوباره از OpenAI شکایت کرد؛ دلیل آن چیست؟
منبع: techcrunch