راهنمای خرید تکراتو
otetmarket
همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

امضای معاهده‌ای علیه ربات های قاتل ؛ وقتی توسعه هوش مصنوعی خطرناک می‌شود!

هزاران محقق پیشرو در حوزه هوش مصنوعی اعلام کرده‌اند که در توسعه و ساخت ربات‌هایی که بدون نظارت انسان قادر به شناسایی و حمله به افراد هستند، شرکت نمی‌کنند. آنها معاهده‌ای عیله ربات های قاتل به امضا رسانده‌اند.

دیمس هاسابیس از شرکت دیپمایند گوگل و ایلان ماسک، مدیر عامل و بنیانگذار اسپیس ایکس، از جمله 2400 تنی هستند که معاهده‌ای را بر علیه شرکت‌های نظامی و دولت‌های سازنده سلاح‌های مرگبار خودکار به امضا رسانده‌اند.

راهنمای خرید تکراتو

امضای این معاهده جدیدترین تلاش دانشمندان و سازمان‌های فعال در حوزه هوش مصنوعی است که نگران خطر تصمیم گیری ربات‌ ها برای زندگی و مرگ انسان‌ها هستند. امضاکنندگان این معاهده همچنین خواستار آنند که ممنوعیت‌های پیشگیرانه‌ای در خصوص تکنولوژی‌هایی اعمال شود که می‌توانند به‌طور بالقوه در نسل‌های بعدی سلاح‌های کشتار جمعی خودکار به کار گرفته شوند.

توافقی برای عدم توسعه ربات های قاتل

این توافق که توسط سازمانی در بوستون به نام “فیوچر آو لایف (The Future of Life)” تنظیم شد، دولت‌ها را متعهد می‌کند، با تصویب قوانین و مقرراتی موافقت کنند که عملا موجب توقف در ساخت ربات های قاتل می‌شود. امضاکنندگان این معاهده، متعهد شدند که نه تنها در توسعه و ساخت، تجارت یا استفاده از سلاح‌های مرگبار خودکار شرکت کنند، بلکه به هر عنوانی از آن حمایت نکنند.

همچنین بیش از 150 سازمان و شرکت فعال در حوزه هوش مصنوعی حاضر در کنفرانس مشترک بین‌المللی هوش مصنوعی (IJCAI) در استکهلم، این معاهده  را به امضا رساندند. معاهده  اخیر در خلال همین کنفرانس به امضای بیش از دو هزار تن از برترین محققان و فعالان عرصه هوش مصنوعی رسید.


از همین نویسنده بخوانید: پاسخ دانشمندان هوش مصنوعی به ایلان ماسک ؛ دیگر نگو ربات‌ها ما را می‌کشند!


یاشوا بنیو، محققی در زمینه هوش مصنوعی از موسسه الگوریتم‌های یادگیری ماشینی مونترال در کانادا، به گاردین گفت که اگر این معاهده بتواند وجه عمومی شرکت‌ها و سازمان‌های نظامی سازنده سلاح‌های خودکار را خدشه‌دار کند، افکار عمومی بر علیه آنها به تکاپو خواهد افتاد.

بنیو گفت:

در واقع، چنین رویکردی برای مین‌های زمینی جواب داد، در این مورد به لطف معاهدات بین‌المللی و شرمساری عمومی، حتی اگر کشورهای عمده‌ای مانند ایالات متحده معاهدات ممنوعیت مین‌های زمینی را امضا نکردند، اما شرکت‌های آمریکایی، ساخت مین‌های زمینی را متوقف کردند.

بخش نظامی، یکی از بزرگترین سرمایه‌گذاران در عرصه تکنولوژی هوش مصنوعی است. دوشنبه هفته گذشته بود که گاوین ویلیامسون، وزیر دفاع بریتانیا، از طرح 2 میلیارد پوندی برای ساخت یک جنگنده جدید یوروفایتر تایفون، موسوم به تِمپست رونمایی کرد که قادر است، بدون خلبان پرواز کند و احتمالا اهداف نظامی دشمن را هدف قرار دهد.

محققان معاهده‌ای را بر علیه سازندگان سلاح‌های مرگبار خودکار به امضا رساندند

در موردی دیگر، ارتش آمریکا چند ماه قبل اعلام کرده بود که در حال ساخت نخستین نمونه از جنگنده‌های بدون سرنشین مجهز به هوش مصنوعی است که می‌توانند بدون دخالت انسان، برای اهداف نظامی مورد استفاده قرار گیرند.


بیشتر بخوانید: حاکمیت ربات ها در دنیا تا سال ۲۰۴۸


این موضوع، پیشرفت جدیدی در ساخت سلاح‌های مرگبار است، چرا که سلاح‌ها و جنگنده‌های بدون سرنشین فعلی به وسیله‌ اپراتورهای انسان کنترل می‌شوند، اما در مقابل، جنگنده‌ها و ربات های قاتل آینده قادر به کُشتن و انهدام اهداف نظامی یا غیر نظامی، بدون دخالت انسان خواهند بود و واضح است که ساخت و توسعه چنین، سلاح‌های مرگبار خودکاری، می‌تواند پیامدهای اخلاقی عدیده‌ای در پی داشته باشد.

جنگنده‌ها و ربات‌های جدید، قادر به کُشتن و انهدام اهداف نظامی یا غیر نظامی، بدون دخالت انسان خواهند بود
جنگنده‌ها و ربات‌های جدید، قادر به کُشتن و انهدام اهداف نظامی یا غیر نظامی، بدون دخالت انسان خواهند بود

در واقع، با به‌کار افتادن این سلاح‌های مخوف کاملا خودکار، عرصه جنگ‌ها گسترده‌تر خواهد شد و پای شرکت‌ها، سازمان‌ها و محققان عرصه هوش مصنوعی هم به مقاصد و برنامه‌های نظامی کشانده می‌شود. با وجود چنین ماشین‌های کاملا خودکاری، پیامدهای اخلاقی و قوانین مرتبط به کشتارهای نظامی، کاملا متحول خواهد شد.

البته در چنین روندی، با تصور حذف کامل انسان در سلاح‌های قاتل آینده، مسئولیت‌های اخلاقی و پیامدهای قانونی از میان نمی‌رود، بلکه اساسا بر عهده شرکت‌ها، سازمان‌های و همچنین محققان توسعه‌دهنده هوش مصنوعی خواهد بود. در همین خصوص بخوانید:

 چالش قانونگذاران آینده: چگونه به جرایم ربات ها رسیدگی می شود؟

و تجارب اخیر شرکت‌های فعال در عرصه هوش مصنوعی (به عنوان مثال، تلفات ناشی از آزمایش سیستم اتوپایلوت تسلا موتورز) نشان می‌دهد که با به‌کار افتادن ماشین‌های خودکار، کشتارهای ناخواسته به‌مانند باگ‌های کامپیوتری نیز غیرقابل اجتناب‌ خواهند بود.

محققان معاهده‌ای بر علیه ربات‌های قاتل به امضا رساندند

وزیران بریتانیا اعلام کرده‌اند که بریتانیا سلاح‌های مرگبار خودکار را توسعه نخواهد داد و همواره بر این سلاح‌ها نظارت و کنترل خواهد داشت. اما مخالفان هشدار می‌دهند که پیشرفت‌های سریع در عرصه هوش مصنوعی، بدین معناست که هم‌اکنون، امکان ساخت سلاح‌های پیشرفته‌ای وجود دارد که می‌توانند بدون رضایت کنترل‌کننده انسان، اهداف (انسانی) را شناسایی و به قتل برسانند. برای بسیاری از محققان، واگذاری تصمیم برای قتل به ربات‌ها، عبور از خطر قرمز اخلاقیات است.

توبی والش، استاد هوش مصنوعی در دانشگاه نیو ساوت ولز در استرالیا که این معاهده اخیر را امضا کرد، گفت:

 ما باید عدم پذیرش سلاح‌های خودکار را به یک اصل پذیرفته‌شده بین‌المللی تبدیل کنیم. انسان باید همیشه در حلقه تصمیم‌گیری حضور داشته باشد.

والش در ادامه گفت:

همانطور که نمی‌توانیم یک فرد مشخص را از ساخت سلاح‌های خودکار بازداریم، نمی‌توانیم یک فرد مشخص را از ساخت یک سلاح شیمیایی بازداریم. اما اگر نخواهیم که دولت‌های مستبد و تروریست‌ها به‌آسانی به سلاح‌های خودکار دسترسی نداشته باشند، باید اطمینان حاصل کنیم که شرکت‌های اسلحه‌سازی، آزادانه این سلاح‌ها را نمی‌فروشند.

محققان می‌توانند در زمینه ساخت سلاح‌های خودکار کار نکنند، اما آنچه که دیگران (مشخصا سازمان‌ها و شرکت‌های نظامی) با دستاوردهای علمی‌شان انجام خواهند ‌داد، عملا فراتر از کنترل آنها است.

لوسی سوچمن، یکی دیگر از امضاکنندگان معاهده جدید و استاد انسان‌شناسی علم و تکنولوژی از دانشگاه لنکستر در انگلستان، می‌گوید، اگر چه محققان نمی‌توانند به‌طور کامل نحوه استفاده از دستاوردها و پیشرفت‌های خود را کنترل کنند، اما می‌توانند در صورت نگرانی، مداخله کنند.

سوچمن گفت:

اگر من یک محقق دید ماشینی بودم که این معاهده را امضا کرده بودم، ابتدا استفاده‌های بعدی از تکنولوژی‌های خود را دنبال می‌کردم و بر علیه استفاده از آنها در خودکارسازی تشخیص هدف، اعتراض می‌کردم و دوم، حاضر به شرکت در مشاوره یا کمک مستقیم به ساخت یک سلاح خودکار از این تکنولوژی نمی‌شدم.

اخبار گوناگون و علمی را با تکراتو دنبال کنید.

بیشتر بخوانید:

 

.

منبع: theguardian

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر