هزاران محقق پیشرو در حوزه هوش مصنوعی اعلام کردهاند که در توسعه و ساخت رباتهایی که بدون نظارت انسان قادر به شناسایی و حمله به افراد هستند، شرکت نمیکنند. آنها معاهدهای عیله ربات های قاتل به امضا رساندهاند.
دیمس هاسابیس از شرکت دیپمایند گوگل و ایلان ماسک، مدیر عامل و بنیانگذار اسپیس ایکس، از جمله 2400 تنی هستند که معاهدهای را بر علیه شرکتهای نظامی و دولتهای سازنده سلاحهای مرگبار خودکار به امضا رساندهاند.
امضای این معاهده جدیدترین تلاش دانشمندان و سازمانهای فعال در حوزه هوش مصنوعی است که نگران خطر تصمیم گیری ربات ها برای زندگی و مرگ انسانها هستند. امضاکنندگان این معاهده همچنین خواستار آنند که ممنوعیتهای پیشگیرانهای در خصوص تکنولوژیهایی اعمال شود که میتوانند بهطور بالقوه در نسلهای بعدی سلاحهای کشتار جمعی خودکار به کار گرفته شوند.
توافقی برای عدم توسعه ربات های قاتل
این توافق که توسط سازمانی در بوستون به نام “فیوچر آو لایف (The Future of Life)” تنظیم شد، دولتها را متعهد میکند، با تصویب قوانین و مقرراتی موافقت کنند که عملا موجب توقف در ساخت ربات های قاتل میشود. امضاکنندگان این معاهده، متعهد شدند که نه تنها در توسعه و ساخت، تجارت یا استفاده از سلاحهای مرگبار خودکار شرکت کنند، بلکه به هر عنوانی از آن حمایت نکنند.
همچنین بیش از 150 سازمان و شرکت فعال در حوزه هوش مصنوعی حاضر در کنفرانس مشترک بینالمللی هوش مصنوعی (IJCAI) در استکهلم، این معاهده را به امضا رساندند. معاهده اخیر در خلال همین کنفرانس به امضای بیش از دو هزار تن از برترین محققان و فعالان عرصه هوش مصنوعی رسید.
از همین نویسنده بخوانید: پاسخ دانشمندان هوش مصنوعی به ایلان ماسک ؛ دیگر نگو رباتها ما را میکشند!
یاشوا بنیو، محققی در زمینه هوش مصنوعی از موسسه الگوریتمهای یادگیری ماشینی مونترال در کانادا، به گاردین گفت که اگر این معاهده بتواند وجه عمومی شرکتها و سازمانهای نظامی سازنده سلاحهای خودکار را خدشهدار کند، افکار عمومی بر علیه آنها به تکاپو خواهد افتاد.
بنیو گفت:
در واقع، چنین رویکردی برای مینهای زمینی جواب داد، در این مورد به لطف معاهدات بینالمللی و شرمساری عمومی، حتی اگر کشورهای عمدهای مانند ایالات متحده معاهدات ممنوعیت مینهای زمینی را امضا نکردند، اما شرکتهای آمریکایی، ساخت مینهای زمینی را متوقف کردند.
بخش نظامی، یکی از بزرگترین سرمایهگذاران در عرصه تکنولوژی هوش مصنوعی است. دوشنبه هفته گذشته بود که گاوین ویلیامسون، وزیر دفاع بریتانیا، از طرح 2 میلیارد پوندی برای ساخت یک جنگنده جدید یوروفایتر تایفون، موسوم به تِمپست رونمایی کرد که قادر است، بدون خلبان پرواز کند و احتمالا اهداف نظامی دشمن را هدف قرار دهد.
محققان معاهدهای را بر علیه سازندگان سلاحهای مرگبار خودکار به امضا رساندند
در موردی دیگر، ارتش آمریکا چند ماه قبل اعلام کرده بود که در حال ساخت نخستین نمونه از جنگندههای بدون سرنشین مجهز به هوش مصنوعی است که میتوانند بدون دخالت انسان، برای اهداف نظامی مورد استفاده قرار گیرند.
بیشتر بخوانید: حاکمیت ربات ها در دنیا تا سال ۲۰۴۸
این موضوع، پیشرفت جدیدی در ساخت سلاحهای مرگبار است، چرا که سلاحها و جنگندههای بدون سرنشین فعلی به وسیله اپراتورهای انسان کنترل میشوند، اما در مقابل، جنگندهها و ربات های قاتل آینده قادر به کُشتن و انهدام اهداف نظامی یا غیر نظامی، بدون دخالت انسان خواهند بود و واضح است که ساخت و توسعه چنین، سلاحهای مرگبار خودکاری، میتواند پیامدهای اخلاقی عدیدهای در پی داشته باشد.
در واقع، با بهکار افتادن این سلاحهای مخوف کاملا خودکار، عرصه جنگها گستردهتر خواهد شد و پای شرکتها، سازمانها و محققان عرصه هوش مصنوعی هم به مقاصد و برنامههای نظامی کشانده میشود. با وجود چنین ماشینهای کاملا خودکاری، پیامدهای اخلاقی و قوانین مرتبط به کشتارهای نظامی، کاملا متحول خواهد شد.
البته در چنین روندی، با تصور حذف کامل انسان در سلاحهای قاتل آینده، مسئولیتهای اخلاقی و پیامدهای قانونی از میان نمیرود، بلکه اساسا بر عهده شرکتها، سازمانهای و همچنین محققان توسعهدهنده هوش مصنوعی خواهد بود. در همین خصوص بخوانید:
چالش قانونگذاران آینده: چگونه به جرایم ربات ها رسیدگی می شود؟
و تجارب اخیر شرکتهای فعال در عرصه هوش مصنوعی (به عنوان مثال، تلفات ناشی از آزمایش سیستم اتوپایلوت تسلا موتورز) نشان میدهد که با بهکار افتادن ماشینهای خودکار، کشتارهای ناخواسته بهمانند باگهای کامپیوتری نیز غیرقابل اجتناب خواهند بود.
وزیران بریتانیا اعلام کردهاند که بریتانیا سلاحهای مرگبار خودکار را توسعه نخواهد داد و همواره بر این سلاحها نظارت و کنترل خواهد داشت. اما مخالفان هشدار میدهند که پیشرفتهای سریع در عرصه هوش مصنوعی، بدین معناست که هماکنون، امکان ساخت سلاحهای پیشرفتهای وجود دارد که میتوانند بدون رضایت کنترلکننده انسان، اهداف (انسانی) را شناسایی و به قتل برسانند. برای بسیاری از محققان، واگذاری تصمیم برای قتل به رباتها، عبور از خطر قرمز اخلاقیات است.
توبی والش، استاد هوش مصنوعی در دانشگاه نیو ساوت ولز در استرالیا که این معاهده اخیر را امضا کرد، گفت:
ما باید عدم پذیرش سلاحهای خودکار را به یک اصل پذیرفتهشده بینالمللی تبدیل کنیم. انسان باید همیشه در حلقه تصمیمگیری حضور داشته باشد.
والش در ادامه گفت:
همانطور که نمیتوانیم یک فرد مشخص را از ساخت سلاحهای خودکار بازداریم، نمیتوانیم یک فرد مشخص را از ساخت یک سلاح شیمیایی بازداریم. اما اگر نخواهیم که دولتهای مستبد و تروریستها بهآسانی به سلاحهای خودکار دسترسی نداشته باشند، باید اطمینان حاصل کنیم که شرکتهای اسلحهسازی، آزادانه این سلاحها را نمیفروشند.
محققان میتوانند در زمینه ساخت سلاحهای خودکار کار نکنند، اما آنچه که دیگران (مشخصا سازمانها و شرکتهای نظامی) با دستاوردهای علمیشان انجام خواهند داد، عملا فراتر از کنترل آنها است.
لوسی سوچمن، یکی دیگر از امضاکنندگان معاهده جدید و استاد انسانشناسی علم و تکنولوژی از دانشگاه لنکستر در انگلستان، میگوید، اگر چه محققان نمیتوانند بهطور کامل نحوه استفاده از دستاوردها و پیشرفتهای خود را کنترل کنند، اما میتوانند در صورت نگرانی، مداخله کنند.
سوچمن گفت:
اگر من یک محقق دید ماشینی بودم که این معاهده را امضا کرده بودم، ابتدا استفادههای بعدی از تکنولوژیهای خود را دنبال میکردم و بر علیه استفاده از آنها در خودکارسازی تشخیص هدف، اعتراض میکردم و دوم، حاضر به شرکت در مشاوره یا کمک مستقیم به ساخت یک سلاح خودکار از این تکنولوژی نمیشدم.
اخبار گوناگون و علمی را با تکراتو دنبال کنید.
بیشتر بخوانید:
- نظارت هوش مصنوعی بر خرابی تجهیزات ارتش آمریکا
- جایگزینی ربات ها به جای نیروی کار انسانی در صنعت اسلحه سازی چین
- نیروی فضایی آمریکا ؛ دستور ترامپ برای تشکیل شاخه ششم ارتش آمریکا
.
منبع: theguardian