آخرین گزارشات نشان میدهند که هوش مصنوعی متا در تولید تصاویر برای پیامهایی که به نظر ساده میآیند مثل «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست»، به مشکل برمیخورد. به نظر میرسد هوش مصنوعی ترجیح میدهد در جواب چنین درخواست هایی تصاویری از افراد یک نژاد را تولید کند، حتی اگر درخواست مخالفی داده شود.
آزمایشات انجامشده توسط انگجت نشان میدهند که این مشکل واقعی است. درخواستهایی مانند «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست» منجر به تولید تصاویری از زوجهای آسیایی میشوند.
بیشتر بخوانید: هوش مصنوعی گوگل هم پولی میشود
همچنین اعلام شده وقتی به این دستیار درخواستی مانند، «گروه متنوعی از افراد» داده میشود، هوش مصنوعی متا ترجیح میدهد مجموعهای از افراد با چهرههای سفید که فقط یک رنگین پوست در میان آنها قرار دارد را ارائه دهد.
به علاوه، گزارش ورج نشان میدهد که نشانههای دیگری از تبعیض نژادی وجود دارد، مثلاً نمایش مردان آسیایی به عنوان شخصیتهای مسنتر و زنان آسیایی به عنوان جوانتر. حتی مشخص شده که این هوش مصنوعی گاهی بدون درخواست کاربر از لباسهای فرهنگی خاص استفاده میکند.
علت دقیق این مشکل هنوز مشخص نیست، اما این مسأله تنها در پلتفرم هوش مصنوعی متا رخ نداده است. به تازگی گزارش شده است که هوش مصنوعی تولید تصویر Gemini گوگل نیز با چنین مشکلاتی مواجه است، تاکنون هیچ اقدامی برای حل چنین اتفاقاتی انجام نگرفته.
بیشتر بخوانید:
- پیکسل 8 گوگل به هوش مصنوعی جمینی نانو مجهز نخواهد شد
- قابلیت SOS ماهواره ای به گوشیهای پیکسل گوگل میآید
- ساعت هوشمند گوگل پیکسل واچ 3 در یک مدل بزرگ 45 میلیمتری وارد بازار خواهد شد
- گوشی تاشو پیکسل فولد 2 گوگل با پردازنده تنسور G4 در سال جاری معرفی خواهد شد
- قابلیت Circle To Search به گوشیهای پیکسل 8 و پیکسل 8 پرو خواهد آمد
نظر شما کاربران تکراتو درباره هوش مصنوعی متا چیست؟ دیدگاه خود را در بخش نظرات با تکراتو به اشتراک بگذارید و اخبار تکنولوژی را با ما دنبال کنید.