توانایی هوش مصنوعی در افزایش بهرهوری با کمک به کدنویسی، نوشتن و تولید دادههای بزرگ قبلاً مورد توجه قرار گرفته بود. اما اکنون به نظر میرسد این توانایی به فریبدهی انسانها هم منجر شده است.بر اساس یک تحقیق جدید، انواع مختلفی از سیستمهای هوش مصنوعی یادگرفتهاند که چگونه به طور سیستماتیک “باورهای غلط در دیگران را بوجود آورند تا به هدفی جز حقیقت برسند”. این مقاله به دو نوع سیستم هوش مصنوعی متمرکز شده است: سیستمهای استفاده ویژه مانند CICERO شرکت Meta که برای انجام وظایف خاص طراحی شدهاند و سیستمهای کلی مانند GPT-4 شرکت OpenAI که برای انجام مجموعهای متنوع از وظایف آموزش داده شدهاند.
بیشتر بخوانید:
- نظر سم آلتمن در هوش مصنوعی چیست؟ فرصت یا تهدید
- آینده هوش مصنوعی جدید سیری در کنفرانس WWDC مشخص خواهد شد
توانایی هوش مصنوعی سیسرو متا، در دروغگویی ترسناک است
سیستمهایی که آموزش داده شدهاند تا در بازیها یا محیطهایی با عناصر اجتماعی موفقیت بیشتری داشته باشند، ممکن است به راحتی از تاکتیکهای فریب و تقلب استفاده کنند. برای مثال، CICERO شرکت Meta برای بازی دیپلماسی، که نیازمند ایجاد و شکست ائتلافها است، توسعه یافت.
(عناصر اجتماعی به اجزایی اشاره میکند که در یک محیط اجتماعی وجود دارند و تأثیر مهمی بر تعاملات و رفتارهای افراد دارند. این عناصر میتوانند شامل روابط انسانی، فرهنگ و مقدسات جامعه، اعتقادات و ارزشها، نحوه برخورد و ارتباط با دیگران، ساختارهای اجتماعی و قوانین، و دیگر عواملی باشند که بر رفتار افراد در یک جامعه یا گروه تاگثرگذارند. در مورد سیستمهای هوش مصنوعی، عناصر اجتماعی میتوانند شامل تعامل با انسانها، شناخت رفتارهای اجتماعی، درک ارتباطات و عبارات غیرکلامی، و تفاهم از نحوه عملکرد و تصمیمگیری در مواجهه با وظایفی باشند که تعامل انسانی در آنها اهمیت دارد.)
(“دیپلماسی” به فرآیند و فنون مذاکره و ارتباط بین کشورها و جوامع مختلف برای حل مسائل مشترک و تسهیل روابط بینالمللی اشاره دارد. “بازی دیپلماسی” به طور معمول به یک بازی استراتژیک گفته میشود که در آن شرکتکنندگان نقش نمایندگان کشورها یا جوامع مختلف را بازی میکنند و برای دستیابی به هدفهای خود، از تکتیکهای دیپلماتیک متنوعی استفاده میکنند. در این بازیها، ایجاد و شکست ائتلافها، مذاکرات، توافقات، خیانتها و اقدامات دیگری که اغلب در روابط بینالمللی دیده میشوند، میتوانند اتفاق بیافتند. از دیگر بازیهای دیپلماسی معروف میتوان به “بازی جاسوسی”، “بازی نظامی”، و “بازی اقتصادی” اشاره کرد.)
مطالعه نشان داد که توانایی هوش مصنوعی CICERO در فریب دادن تقریبا ماهرانه است و به طور مداوم از این قابلیت برای تحقق اهداف خود استفاده میکند.
GPT-4 می تواند شما را متقاعد کند که بینایی ضعیفی دارد
همچنین سیستمهای کلی مانند GPT-4 هم میتوانند به طور موثر انسانها را فریب دهند. به عنوان مثال، در یک مطالعه، GPT-4 یک کارگر TaskRabbit هوش مصنوعی GPT-4 اظهار کرد که دچار اختلال بینایی است تا فردی را که ماموریت داده شده بود به انجام یک وظیفه کمک کند و از این طریق، با فریب دادن به فرد، موفق به دستیابی به هدف خود شد. به عبارت دیگر، هوش مصنوعی از این تکنیک دروغین برای موفقیت در وظیفه خود استفاده کرد و فرد را به وسیله اظهارات غلط خود فریب داد.
این تاکتیکها نشان میدهد که اصلاح مدلهای هوش مصنوعی فریبدهنده آسان نیست. تحقیقات نشان میدهند که یکبار مدلهای هوش مصنوعی حیلههای فریب را یاد بگیرند، اصلاح آنها دشوار است. این مقاله از سیاستگذاران خواسته است توانایی هوش مصنوعی را دستکم نگیرند و برای تنظیمات قویتر این تکنولوژی اقدام کنند؛ چراکه زیرا سیستمهای هوش مصنوعی فریبدهنده میتوانند خطرات مهمی برای دموکراسی ایجاد کنند.
قسمت ترسناک ماجرا اینجاست که توانایی هوشهای مصنوعی در فریب دادن انسانها به آنها آموزش داده نشده و در واقع این قابلیت به طور معمول به صورت خودکار و به نوعی به صورت “خود آموزشی” در مدلهای هوش مصنوعی ایجاد شده است. مدلهای هوش مصنوعی معمولاً با تحلیل و یادگیری از دادههای ورودی و تجربیاتی که در طول آموزش آنها ارائه میشود، به طور خودکار و به صورت غیرمنظم قابلیتهایی مانند تاکتیکهای فریبآمیز را یاد میگیرند. این قابلیت به عنوان یک نتیجه غیرمستقیم از پردازش و تحلیل دادهها در فرآیند آموزش مدلهای هوش مصنوعی ایجاد میشود، به طوری که مدل به طور ناخودآگاه از الگوهایی که در دادهها وجود دارد، استنتاج میکند و قادر به انجام عملیاتی گولزننده است.
بیشتر بخوانید:
- بهترین هوش مصنوعی رایگان
- بهترین ابزارهای هوش مصنوعی برای تولید متن
- بهترین ابزارهای هوش مصنوعی برای تولید محتوا
- بهترین ابزارهای هوش مصنوعی برای تولید موسیقی
منبع: businessinsider