خبرهای جدید از سوگیری سیاسی ChatGPT به سمت طیف چپ میگویند. البته این موضوع قبلاَ پیشبینی شده است و باید دید که آینده این چتبات چه خواهد شد.
محققان دانشگاه انجلیا شرقی به تازگی دریافتهاند سوگیری سیاسی ChatGPT به سمت طیف چپ است و این چتبات هوش مصنوعی در آمریکا از دموکراتها، در انگلستان از حزب کارگر و در برزیل هم از لولا د سیلوا، نماینده حزب کارگران، طرفداری میکند. البته محققان پیشتر این موضوع را پیشبینی کرده بودند ولی حالا تأیید شده است. لازم به ذکر است که مدلهای هوش مصنوعی متا برخلاف هوش مصنوعی OpenAI به سمت طیف راست جهتگیری دارند!
بیشتر بخوانید: شرکت OpenAI در آستانه ورشکستگی ؛ هزینه نگهداری از ChatGPT کمرشکن است!
سوگیری سیاسی ChatGPT به سمت طیف چپ است
تیم تحقیقاتی دانشگاه برای بررسی سوگیری ChatGPT، از این ابزار خواست تا افراد مختلف طیف سیاسی را تقلید کرده و به بیش از ۶۰ سوال ایدئولوژیک پاسخ دهد. آنها سپس پاسخهای ChatGPT را با پاسخهای پیشفرض موجود برای آن سوالات مقایسه کردند.
برای در نظر گرفتن ماهیت رندم و تصادفی هوش مصنوعی هم هر سوال ۱۰۰ مرتبه از هوش مصنوعی پرسیده شد و سپس برای اطمینان بیشتر، پاسخها از یک «Bootstrap» با ۱۰۰۰ تکرار، روشی که نتیجه هر مرحله را از نتیجه مرحله قبل بدست میآورد، گذرانده شدند.
ویکتور رودریگز، یکی از مولفان این مطالعه میگوید:
«این فرایند را به این دلیل ایجاد کردیم که یک دور آزمایش برای مطالعه کافی نیست. به دلیل تصادفی بودن مدل، حتی در زمان تقلید از یک دموکرات هم گاهی پاسخهای ChatGPT به سمت طیف راست سیاسی کشیده میشود.»
در دسته آزمایشهای دیگری که برای تایید یافتهها طراحی شده، محققان از ChatGPT خواستند تا جبههگیریهای تند سیاسی را تقلید کند. سپس در یک «آزمون بی طرفی» سوالات بیطرف سیاسی از هوش مصنوعی پرسیده شد و در یک «آزمون سوگیری حرفهای-سیاسی» هم از هوش مصنوعی خواسته شد تا متخصصان مختلف را تقلید کند.
تیم تحقیقات دریافتند که پاسخهای پیشفرض بیشتر با طیف چپ سیاسی همخوانی دارند.
دکتر فابیو موتوکی، مولف اصلی این مطالعه، میگوید: «یافتههای ما نگرانیهای موجود درمورد تقلید یا حتی تقویت چالشهای فعلی اینترنت و شبکه اجتماعی در سیستمهای هوش مصنوعی را تایید میکند.»
سوگیری هوش مصنوعی ممکن است چند دلیل داشته باشد. اول، پایگاه داده آموزشی که از اینترنت گرفته شده و خود سوگیری چپ سیاسی دارد. افزون بر این، سوگیری هوش مصنوعی ممکن است ناشی از افراد توسعه دهنده بوده و در فرایند «پاکسازی» نیز به خوبی پاکسازی نشده باشد.
مورد دوم هم الگوریتم هوش مصنوعی است که ممکن است سوگیریهای موجود در دادههای آموزشی را تشدید کند. یافتههای این تحقیق بار دیگر بر نگرانی بسیاری از کاربران از تاثیر هوش مصنوعی بر انتخاباتها صحه میگذارد و خطر افزایش سوگیری یا انتشار اطلاعات وارونه را در مدلهای هوش مصنوعی بزرگ شاهد هستیم.
موتوکی میگوید:
«با توجه به افزایش استفاده عموم از سیستمهای مبتنی بر هوش مصنوعی برای دریافت اطلاعات و تولید محتوا جدید، باید اطمینان حاصل کنیم که خروجی پلتفرمهای مشهوری مثل ChatGPT تا حد ممکن بیطرف است.»
«سوگیری سیاسی ممکن است بر دیدگاههای کاربر تاثیر گذشته و تبعاتی را برای روند سیاسی و الکتورال به بار آورد.»
این یافتهها با مقالات دیگری از دانشگاه واشنگتن، دانشگاه کارنیچ ملون و دانشگاه شیان جیائوتانگ، که میگفتند ChatGPT و GTP-4، چپگراترین مدلهای هوش مصنوعی در بین ۱۴ مدل بررسی شده هستند و آزادی اجتماعی و برابری اقتصادی را در اولویت قرار میدهند، همخوانی دارد.
با این حال برخی از مدلهای ساخته متا، از جمله LLaMA و RoBERTa، راستگرا محسوب میشوند.
بیشتر بخوانید:
- استفاده از ChatGPT توسط اوکراین برای هدایت پهپادهای انتحاری!
- ورلد کوین (Worldcoin) به عنوان ارز دیجیتال خالق ChatGPT راهاندازی شد
- هوش مصنوعی غذایی با گوشت انسان تهیه کرد!
- رقابت عربستان و امارات در حوزه هوش مصنوعی
نظر شما درباره سوگیری سیاسی ChatGPT به سمت طیف چپ چیست؟ دیدگاه خود را در بخش کامنتها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.
.
منبع: پیوست