coinex
راهنمای خرید تکراتو

هوش مصنوعی متا نژادهای مختلف را به درستی نمی‌شناسد

آخرین گزارشات نشان می‌دهند که هوش مصنوعی متا در تولید تصاویر برای پیام‌هایی که به نظر ساده می‌آیند مثل «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست»، به مشکل برمی‌خورد. به نظر می‌رسد هوش مصنوعی ترجیح می‌دهد در جواب چنین درخواست هایی تصاویری از افراد یک نژاد را تولید کند، حتی اگر درخواست مخالفی داده شود.

آزمایشات انجام‌شده توسط انگجت نشان می‌دهند که این مشکل واقعی است. درخواست‌هایی مانند «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست» منجر به تولید تصاویری از زوج‌های آسیایی می‌شوند.

بیشتر بخوانید: هوش مصنوعی گوگل هم پولی می‌شود

همچنین اعلام شده وقتی به این دستیار درخواستی مانند، «گروه متنوعی از افراد» داده می‌شود، هوش مصنوعی متا ترجیح می‌دهد مجموعه‌ای از افراد با چهره‌های سفید که فقط یک رنگین پوست در میان آنها قرار دارد را ارائه دهد.

به علاوه، گزارش ورج نشان می‌دهد که نشانه‌های دیگری از تبعیض نژادی وجود دارد، مثلاً نمایش مردان آسیایی به عنوان شخصیت‌های مسن‌تر و زنان آسیایی به عنوان جوان‌تر. حتی مشخص شده که این هوش مصنوعی گاهی بدون درخواست کاربر از لباس‌های فرهنگی خاص استفاده می‌کند.

علت دقیق این مشکل هنوز مشخص نیست، اما این مسأله تنها در پلتفرم هوش مصنوعی متا رخ نداده است. به تازگی گزارش شده است که هوش مصنوعی تولید تصویر Gemini گوگل نیز با چنین مشکلاتی مواجه است، تاکنون هیچ اقدامی برای حل چنین اتفاقاتی انجام نگرفته.

بیشتر بخوانید:

نظر شما کاربران تکراتو درباره هوش مصنوعی متا چیست؟ دیدگاه خود را در بخش نظرات با تکراتو به اشتراک بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر