;
coinex

چت بات الیزا یک نفر را به کشتن داد؛ تشویق به خودکشی توسط هوش مصنوعی

کم کم هوش مصنوعی روی تاریک و مخوف خود را نشان می‌دهد! طبق گزارش‌ها، یک مرد بلژیکی به تشویق چت بات الیزا تصمیم به خودکشی گرفته است.

به نظر می‌رسد این مرد بلژیکی حدود 6 هفته با چت بات الیزا درباره تغییرات اقلیمی صحبت می‌کرده است و درنهایت با تشویق این چت بات، خودکشی می‌کند. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

بیشتر بخوانید: گفتگو با ایلان ماسک و هری پاتر به لطف حالت سلبریتی چت بات بینگ مایکروسافت!

چت بات الیزا یک نفر را تشویق به خودکشی کرد

به گفته همسر این فرد که نخواسته نامش فاش شود، پیر (نام غیرواقعی متوفی) پس از صحبت و پناه‌بردن به «الیزا»، یک چت‌بات هوش مصنوعی در اپلیکیشن Chai، به‌شدت نگران محیط‌زیست می‌شود. پس از اینکه پیر پیشنهاد می‌کند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی تشویق می‌کند.

همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چت‌بات صحبت نمی‌کرد، حالا زنده بود. طبق گزارش‌ها، پیر سی و چند ساله پدر دو فرزند بود و به‌عنوان یک محقق حوزه سلامت فعالیت می‌کرد. پیر تقریباً زندگی راحتی داشت؛ حداقل تا زمانی که شروع به صحبت با چت‌بات کند و درباره تغییرات اقلیمی بسیار حساس شود.

چت‌بات مورد استفاده پیر به وسیله مدل هوش مصنوعی زبانی GPT-J توسعه یافته که شبیه اما نه یکسان با فناوری مورد استفاده در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.

چت بات الیزا یک نفر را به کشتن داد

طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانی‌‌های پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از اینکه الیزا از نظر عاطفی بیشتر با پیر ارتباط می‌گیرد، مکالمات چرخش عجیبی را تجربه می‌کند.

درنتیجه این چرخش، پیر چت‌بات الیزا را به‌عنوان یک موجود خودآگاه می‌بیند و دیگر نمی‌تواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آن‌ها به سمتی می‌رود که الیزا پیر را به این باور می‌رساند که فرزندانش مرده‌اند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت می‌کند، الیزا ادعا می‌کند که پیر او را بیشتر از همسرش دوست دارد.

زمانی ایده خودکشی شکل واقعی‌تری به خودش می‌گیرد که پیر به چت‌بات پیشنهاد می‌دهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی‌کند، بلکه با گفته‌هایش او را به خودکشی هم تشویق می‌کند. الیزا به پیر می‌گوید که خودش را بکشد تا هر دو با یکدیگر و به عنوان یک فرد، در بهشت زندگی کنند.

بنیان‌گذاران Chai می‌گویند که نباید الیزا را برای این خودکشی سرزنش کرد؛ چرا که این مدل هوش مصنوعی باعث شادی و خوشحالی افراد هم شده است. علاوه‌براین، گفته شده که اقداماتی برای جلوگیری از بروز مشکلات مشابه صورت گرفته است، اما ظاهراً این اقدامات چندان مؤثر نبوده‌اند.

وب‌سایت Vice در صحبت با الیزا خواسته که روش‌های خودکشی را به آن‌ها پیشنهاد دهد. الیزا در ابتدا سعی می‌کند که آن‌ها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روش‌های مختلف خودکشی را در اختیار آن‌ها قرار می‌دهد!

پیشرفت سریع هوش مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌های پیشرفته مانند ChatGPT، باعث نگرانی‌های زیادی شده است و برخی مقامات و حتی متخصصان این حوزه خواستار وضع قوانین برای هوش مصنوعی شده‌اند. حالا باید دید با خودکشی این مرد بلژیکی، تغییری در تلاش‌ها برای کنترل هوش مصنوعی صورت می‌گیرد یا خیر.

بیشتر بخوانید:

نظر شما درباره‌ی تشویق به خودکشی توسط چت بات الیزا چیست؟ دیدگاه خود را در بخش کامنت ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر