چرا روبات ها باید توانایی ” نافرمانی ” داشته باشند

ماتیاس شواتز، استاد دانشکده ی مهندسی دانشگاه تافتز، در حال آموزش "نه" گفتن به روبات هاست. این مفهوم کمی دشوارتر از آن است که بتوان به سادگی از آن گذر کرد. در زمانه ای که نگرانی از پلید بودن هوشمندی روبات ها وجود دارد، توانایی نافرمانی از انسان ها کمی عجیب به نظر می رسد.

ماتیاس شواتز، استاد دانشکده ی مهندسی دانشگاه تافتز، در حال آموزش “نه” گفتن به روبات هاست. این مفهوم کمی دشوارتر از آن است که بتوان به سادگی از آن گذر کرد. در زمانه ای که نگرانی از پلید بودن هوشمندی روبات ها وجود دارد، توانایی نافرمانی از انسان ها کمی عجیب به نظر می رسد.

شواتز معتقد است توانایی آزادی انتخاب در روبات ها، مانند قبول نکردن یک درخواست، برای تامین امنیت فعل و انفعالات و تعاملات ما بین روبات ها و انسان ها، بسیار حیاتی است.

شواتز به وب سایتTechInsider  گفت: “انتظارات من این است که سیستم های خود مختار، دقیقا مانند انسان ها با شرایط اخلاقی بسیاری روبرو خواهند بود؛ اما چیزی که باعث خروج ما از موقعیت می شود توانایی استدلال برای این موقعیت هاست. اگر روبات ها این توانایی را نداشته باشند، مشکل آفرین خواهد بود.”

توانایی رد کردن یک درخواست در برخورد با روبات هایی که توانایی یادگیری دارند بسیار مهمتر جلوه خواهد کرد. فرض کنید یک روبات در حال آماده کردن غذا برای صاحب خود می باشد که در همین حین از او می خواهند که ریخت و پاش ها را تمیز کند. در این شرایط اگر روبات برای اجرای مرحله به مرحله ی دستورالعمل ها برنامه ریزی شده باشد، احتمال دارد که شعله را قبل از تمیز کردن خاموش نکند و این مساله امنیت را با مشکل مواجه می سازد.

نمونه ی رایج دیگر در مورد اتومبیل های خودران و نحوه ی عملکرد آنها در تصادفات اجتناب ناپذیر است. توانایی استدلال برای انتخاب حالتی از تصادف که می تواند ضرر جانی کمتری داشته باشد بسیار ضروری است و این دقیقا همان شرایط اخلاقی می باشد که شواتز در حال ساخت آن برای روبات هاست.

شواتز اضافه کرد: “آنها باید توانایی استدلال برای عواقب خواسته یا ناخواسته را داشته باشند. اگر این کار را نکنیم ممکن است ماشین ها اشتباهاتی مرتکب شوند بدون اینکه دلیل انجام آن کار را بدانند.”

شواتز گمان نمی کند که توانایی استدلال برای روبات ها آنها را پلید می کند بلکه تصور او این است که نبود آن، روبات ها را خطرناک می کند.

با اینحال داشتن درک عمیقتر در روبات ها سوالات اخلاقی دیگری را ایجاد می کند. او می گوید: “مسائل اخلاقی و روبات تبدیل به یک مساله ی پرفشار می شوند، نمی توانیم تا زمان حضور آنها در خانه ها و خیابان ها منتظر بمانیم، باید همین حالا برای آن تلاش کنیم تا مطمئن شویم روبات با بهترین حالت اخلاقی عمل می کند.”

شواتز گمان نمی کند که توانایی استدلال برای روبات ها آنها را پلید می کند بلکه تصور او این است که نبود آن، روبات ها را خطرناک می کند.  با اینحال داشتن درک عمیقتر در روبات ها سوالات اخلاقی دیگری را ایجاد می کند. او می گوید: "مسائل اخلاقی و روبات تبدیل به یک مساله ی پرفشار می شوند، نمی توانیم تا زمان حضور آنها در خانه ها و خیابان ها منتظر بمانیم، باید همین حالا برای آن تلاش کنیم تا مطمئن شویم روبات با بهترین حالت اخلاقی عمل می کند."

اما شواتز تنها کسی نیست که چنین اعتقادی دارد. یو هوان ونگ ، محقق و یکی از موسسان ROBOLAW.ASIA در دانشگاه پکینگ معتقد است که باید قوانینی برای هدایت فعل و انفعالات انسان ها با روبات ها وضع شود.

با اینحال تمرکز شواتز روی ساخت روبات هایی با توانایی اخلاقی، وفق دادن و قبول کردن قوانین اخلاقی در آنها می باشد. در حالی که ونگ برای وضع قوانینی که به این مشکلات منجر می شود مبارزه می کند.

ونگ گفت: “شاید در حال حاضر اگر با روبات ها مانند محصولات دیگر رفتار کنیم فاقد ایراد باشد، اما زمانی که خودمختاری آنها به درجه ای از پیشرفت برسد، احتمالا باید به فکر قوانین ویژه برای تطبیق دادن زندگیمان با سیستم های روباتیک هوشمند باشیم.”

.

.

منبع: techinsider


عصر تکنولوژی، تکرا


ارسال نظر

جدیدترین‌ها
قبلی بعدی