چند روز قبل خبری درباره یک نامه سرگشاده درباره درخواست توقف هوش مصنوعی منتشر شد که به امضای 1000 چهره تکنولوژی، از جمله ایلان ماسک و استیو وازنیاک رسیده بود. جدیدترین گزارشها حاکی از آن هستند که تعدادی از این امضاها جعلی است.
در متن نامه آمده بود که این افراد خواستار توقف هوش مصنوعی شدهاند. اما حالا، بسیاری از فعالان حوزه تکنولوژی که در نامه مذکور به نام و امضای آنها اشاره شده، مدعی شدند که چنین نامهای را امضا نکردهاند.
برخی محققان نیز اعلام کردهاند که استفاده از تحقیقاتشان در این نامه را محکوم میکنند. چهرههای شاخص و فعالان خوزه تکنولوژی در این نامه جنجالبرانگیز از آزمایشگاهها و شرکتهای فعال در زمینه هوش مصنوعی خواسته بودند که توسعه سیستمهای قدرتمندتر از GPT-4 را متوقف کنند. گفته میشود که تعدادی از مهندسان آمازون، دیپمایند، گوگل و متا نیز این نامه را امضا کردهاند.
بیشتر بخوانید: درخواست مرکز هوش مصنوعی و سیاست دیجیتال از FTC: از انتشار نسخه های جدید ChatGPT جلوگیری کنید
انتقادها نسبت به نامه درخواست توقف هوش مصنوعی
مدل GPT-4 که اخیراً از سوی شرکت OpenAI معرفی شده است، میتواند مکالماتی مشابه با انسان ایجاد کند و حتی قادر به تشخیص تصاویر است. البته این مدل کاربردهای مختلف دیگری هم دارد؛ مانند نوشتن آهنگ یا خلاصهکردن متون طولانی. طبق ادعای نامه فعالان دنیای فناوری، این سیستمهای هوش مصنوعی میتوانند خطری بزرگ برای بشریت باشند: «متخصصان مستقل و آزمایشگاههای توسعهدهنده هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعهای از پروتکلهای امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند؛ پروتکلهایی که باید شدیداً توسط کارشناسان خارجی بررسی و نظارت شوند.»
این نامه به تلاش اندیشکده Future of Life institute یا FLI نوشته شده و در آن به 12 تحقیق مختلف از متخصصان شامل اساتید و مهندسان سابق OpenAI، گوگل و دیپمایند استناد شده است. اما حالا به گزارش گاردین، 4 متخصص که به تحقیق آنها در این نامه استناد شده، نسبت به ادعاهای مطرحشده، ابراز نگرانی کردهاند.
علاوه بر این موضوع، نامه منتشرشده فاقد پروتکلهای تأییدیه برای امضاها بوده و حالا مشخص شده است که برخی افراد اصلاً آن را امضا نکردهاند. از میان این افراد میتوان به «شی جینپینگ» و «یان لیکان»، دانشمند ارشد هوش مصنوعی متا اشاره کرد. لیکان در توییتر رسماً اعلام کرده است که این نامه را امضا نکرده و همچنین از آن حمایت نمیکند.
منتقدان نامه اخیر میگویند FLI که عمدتاً توسط بنیاد ماسک تأمین مالی میشود، بهجای اینکه به مشکلات اساسی هوش مصنوعی بپردازد، به سراغ سناریوهای آخرالزمانی خیالی رفته است. از برخی مشکلات اساسی هوش مصنوعی میتوان به رفتارهای نژادپرستانه و جنسیتزده اشاره کرد.
«مارگارت میچل»، یکی از مدیران سابق بخش هوش مصنوعی گوگل و دانشمند کنونی Hugging Face که مقالهاش مورد استناد نامه اخیر قرار گرفته است، از آن انتقاد کرده و گفته است که مشخص نیست منظور از نویسندگان نامه از «قدرتمندتر از GPT-4» چه بوده است:
«این نامه مجموعهای از اولویتها و روایتهایی درباره هوش مصنوعی را بیان میکند که به نفع حامیان FLI است. نادیدهگرفتن آسیبهای کنونی یک امتیاز محسوب میشود که برخی از محققان از آن بهرهای نمیبرند.»
یکی دیگر از محققان به نام «شیری دوری هاکوهن» که درباره تأثیرگذاری استفاده کنونی از سیستمهای هوش مصنوعی روی تصمیمگیریها درزمینه تغییرات اقلیمی، جنگهای هستهای و دیگر تهدیدات وجودی، مقاله نوشته است، میگوید هوش مصنوعی برای اینکه چنین خطراتی را افزایش دهد، نیازی به دستیابی به هوش در سطح انسان ندارد.
در واکنش به این انتقادها، «مکس تگمارک»، رئیس FLI، میگوید که باید خطرات بلندمدت و کوتاهمدت هوش مصنوعی جدی گرفته شوند: «وقتی به فردی در نامه استناد میکنیم، یعنی آن فرد جمله موردنظر را تأیید میکند و نه کل نامه را. علاوهبراین، استناد به این فرد بهمعنای آن نیست که ما همه تفکرات او را تأیید میکنیم.»
بیشتر بخوانید:
- شروع ممنوعیت استفاده از ChatGPT در اروپا با کشور ایتالیا!
- توانایی هوش مصنوعی در تحلیل بازار ارزهای دیجیتال ؛ هیچ محدودیتی برای AI وجود ندارد
- هوش مصنوعی ChatGPT با تشخیص درست علائم بیماری، جان یک سگ را نجات داد
نظر شما درباره جعلی بودن نامه درخواست توقف هوش مصنوعی چیست؟ دیدگاه خود را در بخش کامنتها با تکراتو به اشتراک بگذارید و اخبار تکنولوژی را با ما دنبال کنید.