کوینکس
همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

چرا باید قید ایجاد خودآگاهی مصنوعی را بزنیم؟

خودآگاهی مصنوعی آدمک‌های ماشینی یا نرم‌افزارهای پیشرفته‌ای که «هوشیار شده»‌اند از آن دست ایده‌های سینمایی‌ست که خواه ناخواه بحث‌‌های مهمی را پیش می‌کشد.

آرون گروپس

به واقع امر، راه دست‌یابی به خودآگاهی مصنوعی را نمی‌دانیم حتی اگر هم یکی خلق می‌کردیم نمی‌دانستیم (با فناوری‌های سنجش امروزی)، که اکنون تمام این عدم‌قطعیت‌ها نیز ما را در موقعیت متزلزلی قرار داده است. در همین هنگام، چنین موضوعی امر بسیار مهمی‌ را نیز به پیش می‌کشد، چرا که وجود دستگاه‌های خودآگاه پدیدآور پی‌آمدهای دراماتیک و اخلاقی نیز خواهند بود.

ما مستقیماً نمی‌توانیم رد آن خود-آگاهی‌ای را بزنیم ‌که در رایانه‌ها و نرم‌افزار آن‌ها اجرا می‌شود: دست‌کم، نه بیشتر از چیزی‌که می‌توانیم از قورباغه‌ها و حشرات بفهمیم! بله، ما نور را تشخیص می‌دهیم اما برای اندازه‌گیری صورت‌های نامرئی نورــ هم‌چون امواج ایکس-ری‌ــ نیاز به چشم‌‌ مسلح داریم.

حتی چنین‌ درکی به علت وجود نظریه‌ی الکترومغناطیسم است که به‌ کارایی‌اش اطمینان داریم و قادریم ابزار‌هایی بر اساس این نظریه توسعه دهیم که بتواند چیزهایی را حس کند که حواس‌مان نمی‌توانند. همین موضوع را بسط دهید به توسعه‌ی نظریه‌ی مناسب خودآگاهی که معیار سنجش هوشیاری را فراهم می‌کند تا برای تعیین آن‌ «چیزی» که قادر به تکلم نیست، بتوانیم پی ببریم که، آن‌ چیز بر اساس کارایی و سرشتش، خودآگاه هست یا نیست.

بیشتر بخوانید: خودآ‌گاهی هوش مصنوعی GPT-3 به مرحله‌ای رسیده که درباره خودش مقاله می‌نویسد

توسعه‌ی خودآگاهی مصنوعی

بدبختانه، اجماعی بر سر نظریه‌ی خودآگاهی وجود ندارد چه برسد بر خودآگاهی مصنوعی. برآورد اخیری که پژوهشگران «هوشیاری» انجام داده‌اند نشان داد که فقط 58 درصد از آن‌ها به متداول‌ترین نظریه، یعنی فضای‌کاری جهانی (که می‌گوید، افکار آگاهانه‌‌یِ انسان، در دیگر فرآیندهای ناآگاهانه مغزش توزیع شده‌ است)، امیدوار بودند.

سه نظریه‌ی برتر متداول آگاهی، شامل فضای کاری جهانی، از اساس، در چگونگی و یا این‌که تحت چه شرایطی هوشیاری رایانه‌ها می‌تواند رقم بخورد اختلاف نظر دارند.

به ویژه‌که این فقدانِ توافق سد مهمی را هم به وجود آورده؛ چرا که هر سنجشی از خودآگاهی موجود در ماشین یا حیوانات غیر انسان بستگی به یک نظریه و یا دیگر نظریه‌ها دارد. در این وادی، هیچ راه مستقلی برای آزمودن آگاهی یک هستومند بدون التفات بر یک نظریه وجود ندارد.

خودآگاهی مصنوعی

اگر ما به این عدم قطعیت در میان حرفه‌‌ای‌های این رشته توجه کنیم، می‌بینیم که راه منطقی، اندیشیدن درباره‌ی وضعیت بسیار تاریکی‌ست که رایانه‌ها چگونه می‌توانند خودآگاه شوند (ساحتی که چیزی از آن نمی‌دانیم!)ــ و اگر می‌توانند چگونه می‌توانیم به این امر دست بیابیم. بسته به آن‌چه‌که نظریه‌ها در اختیارمان قرار می‌دهند تنها سه احتمال وجود دارد (در فرض): هیچ‌گاه رایانه‌ها خودآگاه نخواهند شد، ممکن است روزی بشوند و یا بعضی‌هاشان هم‌اکنون هستند!

در این اثنا، عده‌ی کمی از افراد هستند که به جد می‌کوشند دستگاه‌ها و یا نرم‌افزار‌ی هوشمند بسازند. دلیلش این است که عموماً ساحت هوش‌مصنوعی کوشیده ابزارهای سودمند بسازد و  هیچ  دلیل روشنی در دست نداریم که آگاهی ماشین می‌تواند در کارهایی‌که ما از رایانه‌ها می‌خواهیم کمکی بکند!

فراسوی خیر و شر با خودآگاهی مصنوعی

اخلاق نیز هم‌چون خودآگاهی پر است از عدم قطعیت و فقدان اجماع بر سر اصول. حتّی پس از گذشت‌ هزاران سالی که به روی آن کار شده است. اما یک حس (نه تفکری جهان شمول) گمان می‌کند که خودآگاهی اندرکنش مهمی با اخلاق دارد.

علی‌الخصوص، اغلب پژوهشگران، با التفات به هر نظریه‌ی اخلاقی که تاییدش کنند، باور دارند که توانایی تجربه‌ی امر مطلوب و یا نامطلوب یکی از ویژگی‌های مهم حالات آگاهانه‌ست که یک هستومند را شایسته‌ی توجّه اخلاقی می‌کند.

همان چیزی که زدن سگ را اشتباه می‌داند ولی صندلی را خیر. اگر ما رایانه‌هایی بسازیم‌که بتوانند حالات مثبت و منفی آگاهانه را تجربه کنند، چه الزامات اخلاقی‌ای را برابر آن‌ها خواهیم داشت؟ شاید ما بهتر است با رایانه و یا تکه‌ نرم‌افزاری که توانایی درک شعف یا رنج را دارد با ملاحظات اخلاقی رفتار کنیم.

ما آدمک‌های ماشینی و یا دیگر مصنوعی‌جات هوشمند را می‌سازیم که کارهایی که قادر به انجام‌شان نیستیم انجام دهند، و هم کاری که دل‌مان نخواهد انجامش دهیم. بنابر این، به اندازه‌ای که این هوش‌های ‌مصنوعی دارای خودآگاهی‌ای نظیر ذهن ما باشند، سزاوار توجّه اخلاقی مشابه ما هستند.

البته، فقط به دلیل‌این‌که یک هوش مصنوعی خودآگاه است به معنای این نیست که آن‌ها ترجیحاتی مشابه ما و یا ارزش‌های نامطلوب یکسانی داشته باشند امّا ترجیحات‌شان هر چه که باشد، در هنگام راه‌اندازی هوم (هوش‌مصنوعی) باید به دقّت در نظر گرفته شوند. ساخت دستگاه هوشیاری که به کاری واداردش کنیم از نظر اخلاقی مشکل‌ساز است. این بسیار واضح به نظر می‌رسد؛ امّا مشکلات ژرف‌تری در این میان وجود دارد.

سه سطح در هوش مصنوعی را تصوّر کنید. آدمک ماشینی یا رایانه‌ای وجود دارد که ‌ـــ بر هر کدام از آن‌ها می‌توان نرم‌افزاری اجرا کرد. سپس، کدی به‌روی یکی از سخت‌افزارها نصب می‌شود. در نهایت، در ازای هرباری‌که این کد بارگذاری شده، ما یک «نمونه‌» کد اجرا شده داریم.

در چه سطحی از این فرآیندی که اجرا شده، ما با اخلاقیات رویاروی می‌شویم؟ محتمل است که سطح سخت‌افزار و کُد غیر معقول باشند و عامل هوشمند در نمونه‌کدی باشد که در حال اجراست! یعنی، اگر شخصی‌ به روی رایانه‌اش نمونه نرم‌افزار خودآگاهی اجرا کند از نظر اخلاقی موظفیم که تا ابد آن را در حالت اجرا نگه داریم؟

مضاف بر آن، خلق هر نرم‌افزاری به بارها عملیات رفع خطا برای کارایی درست و رفع مشکلات نیاز دارد. چه می‌شود اگر یک شخص از منظر اخلاقی ملتزم به نگه‌داری «نمونه» نرم‌افزار خودآگاه در فرآیند توسعه باشد؟ این امر گریز ناپذیر است:  مدل‌سازی رایانه‌ای یک راه با ارزش برای کشف و آزمودن نظریه‌ها در روان‌شناسی‌ست. در نظر گیری اخلاقیات در نرم‌افزار خودآگاه به سرعت می‌تواند تبدیل به معضلی محاسباتی و انرژیک شود که هیچ نتیجه‌ی واضحی هم در پی ندارد.

آیا باید از ساخت خودآگاهی مصنوعی اجتناب کنیم؟

حال می‌خواهم به اصل ماجرا برگردم. اگر یک ماشین هم دارای خودآگاهی مصنوعی باشد و هم تجربیات مثبت، آن‌گاه در ساحت اخلاق، دارای سطحی از رفاه می‌شود و راه‌اندازی چونین ماشین‌هایی به نوعی می‌تواند مولّد رفاه نیز باشد. در حقیقت، ماشین‌ها حتّی کارآمدتر از موجودات زیست‌شناختی قادر به تولید سعادتی نظیر شادی و شعف هستند. که این یعنی، به ازای هر مقدار منابعی که در اختیار دارند می‌توانند بیشتر از موجودات زنده شادی و شعف تولید کنند.

به گمانی برای مثال، آینده‌ی فناوری به ما اجازه‌ی ساخت رایانه‌هایی کوچکی دهد که از انسان‌های سرخوش، خوش‌ترند. امّا فقط نیاز به انرژی‌ای در حد و اندازه‌ی یک لامپ دارند! در این نمونه، بر اساس موازین اخلاقی، بهترین سلسله اقدماتی که بشر می‌تواند انجام دهد، تا جای ممکن ساخت رفاه مصنوعی، چه در حیوانات، انسان‌ها و یا رایانه‌ها خواهد بود.

هدف انسان‌های آینده شاید تبدیل تمام ماده‌‌ی در دسترس جهان به شکل ماشین‌هایی دارای خودآگاهی مصنوعی باشد که قادر به تولید رفاه تا ده‌هزار برابر بیشتر از هر موجود زنده‌ای هستند؛ چیز عجیبی‌که شاید آینده‌ای با بیش‌ترین سعادت را در پی داشته باشد.

بیشتر بخوانید:

دیدگاه شما دربارهٔ خودآگاهی مصنوعی چیست؟ نظرات خود را در بخش کامنت‌ها با ما در میان گذاشته و اخبار تکنولوژی را از تکراتو دنبال کنید.

منبع: ScientificAmerican

ارسال برای دوستان در: واتساپ | تلگرام |





ارسال نظر (1 نظر)

    زدن دکمه مرگش سخت خواهد بود شاید اون هم برای از دست ندادن جان مصنوعی خودش دست به هر کاری بزنه

    پاسخ