coinex
راهنمای خرید تکراتو

توسعه هوش مصنوعی مساوی با پایان نسل بشر است

توسعه هوش مصنوعی مساوی با پایان نسل بشر است.

استیون هاوکینگ فیزیکدان، نویسنده و کیهان‌شناس مطرح انگلیسی سال‌ها پیش از توسعه هوش مصنوعی و خطرات آن برای آینده بشر گفته بود. وی در مصاحبه‌ای در سال 2014 هشدار داده بود که فناوری هوش مصنوعی و توسعه آن به‌معنای پایان نسل بشر خواهد بود. این دانشمند فقید که مدت‌زمان بسیار بالایی از عمر خود با بیماری دست و پنجه نرم می‌کرد آنقدر ذهن فزاینده‌ای داشت که می‌توانست آینده تکنولوژی را پیش‌بینی کند. حال بیایید به نقل موضوع مورد بحث بپردازیم و چالش‌های بشر برای مقابله با هوش مصنوعی را بهتر بشناسیم.

بیشتر بخوانید: اجرای کامل برنامه روزانه یک شبکه رادیویی توسط هوش مصنوعی

توسعه هوش مصنوعی به معنی پایان نسل بشر است

مدت‌ها قبل از اینکه ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت:

«توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.»

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

توسعه هوش مصنوعی به معنی پایان نسل بشر است

هاوکینگ گفت: «اشکال بسیار ابتدایی هوش مصنوعی تهدیدی برای بشر محسوب نمی‌شوند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.»

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

بیشتر بخوانید:

نظر شما درباره‌ی توسعه هوش مصنوعی و خطرات آن برای نسل بشر چیست؟ دیدگاه خود را در بخش کامنت ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر