یک پزشک هوش مصنوعی در خبری عجیب ذکر کرده است که خطرات استفاده از هوش مصنوعی در پزشکی بسیار بیشتر از منفعت آن است.
یک پزشک هوش مصنوعی اعلام کرده است که خطرات استفاده از هوش مصنوعی در پزشکی بسار زیاد است. وی عنوان کرد که این تکنولوژی میتواند در علم پزشکی سوگیری ایجاد کرده و در بین افراد سفید پوست و سیاه پوست تبعیض قائل شود. علیرغم اینکه هوش مصنوعی برای رسیدن به اهداف خود به قوانین و دامهای فوری نیاز دارد میتوان گفت که ممکن است در کارش اشتباهی رخ دهد.
بیشتر بخوانید: کسبوکارهای کوچک استفاده از هوش مصنوعی را در روند بازاریابی ترجیح میدهند!
خطرات استفاده از هوش مصنوعی در پزشکی فاش شد
به نقل از نشریه آمریکایی دهیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسهای را برای بحث در مورد تنظیم الگوریتمهای هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعدهها و دامهای عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اونای آی اظهار داشت:
اگر از هوش مصنوعی درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.
با پیشرفتهتر شدن قابلیتهای الگوریتمهای هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار میدهند که میتواند تمدن بشری را نابود کند.
یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقالهای آورده است. او مینویسد که کارش را بر درک اینکه چگونه الگوریتمهای هوش مصنوعی میتوانند سوگیریها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتمهای هوش مصنوعی توسعهیافته قبلی برای شناسایی سرطانهای پوست در تصاویر سرطان پوست روی پوستهای قهوهای و سیاه عملکرد بدتری دارند که میتواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود.
این الگوریتمهای پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکتها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامههای درماتولوژی هستند. او میگوید:
«بسیاری از شرکتها در هنگام ساختن الگوریتمهای خود، رنگهای پوست متنوع را نشان نمیدهند، علیرغم تحقیقاتی که نشان میدهد چگونه این امر میتواند منجر به عملکرد مغرضانه شود.»
خارج از پوست، الگوریتمهای پزشکی که قبلاً بهکار گرفته شدهاند، پتانسیل ایجاد آسیب قابلتوجهی را دارند. مقالهای در سال ۲۰۱۹ که در Science منتشر شد، پیشبینیهای یک الگوریتم اختصاصی را که قبلاً روی میلیونها بیمار بهکار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم بهمنظور کمک به پیشبینی بیمارانی بود که نیازهای پیچیدهای دارند و باید حمایت بیشتری دریافت کنند.
اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاهپوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبتهای اضافی بودند.
خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتمهایی برای پیشبینی اینکه افرادی که قبلاً مرتکب جرم شدهاند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. درحالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان دادهاند که این الگوریتم دارای تعصبات نژادی است:
متهمان سیاه پوستی که جرایم را تکرار نکردند، پیشبینیهای نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند.
فناوریهای تشخیص چهره مبتنیبر هوش مصنوعی روی افراد رنگینپوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده میشوند و منجر به دستگیری و زندان برای افراد بیگناه شدهاند. برای مایکل الیور، یکی از مردانی که به اشتباه بهدلیل تشخیص چهره مبتنیبر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگیاش را مختل کند.
برخی میگویند که خود انسانها رفتار مغرضانه دارند و الگوریتمها میتوانند تصمیمگیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتمها روی دادههای جانبدارانه آموزش داده میشوند، همان خروجیهای مغرضانه را مانند تصمیمگیرندگان انسانی در بهترین سناریو تداوم میدهند و در بدترین حالت میتوانند سوگیریها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.
این پزشک در پایان مینویسد:
از آنجایی که هوش مصنوعی همچنان در قسمتهای بیشتری از جامعه نفوذ میکند، این فناوری نیست که باید نگران آن باشیم، این ما و مدلها هستیم که ناعادلانهترین جنبههای جامعه را منعکس و تثبیت میکنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری بهجای دنیای ناعادلانهتر، به دنیایی بهتر منتهی میشود.
در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه میدهد، «امیدوارم آنها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.»
بیشتر بخوانید:
- ابررایانه هوش مصنوعی ایران در سال 1403 به بهرهبرداری میرسد [جزئیات پروژه مریم]
- نخستین مجری هوش مصنوعی ترکیه رونمایی شد [+فیلم]
- تماشا کنید: بازسازی چهره شاعران بزرگ ایرانی توسط هوش مصنوعی [+فیلم و عکس]
- تصاویر هوش مصنوعی از زنان کشورهای مختلف جهان ؛ زن ایرانی از نظر هوش مصنوعی چه شکلی است؟ [+تصاویر]
نظر شما درباره خطرات استفاده از هوش مصنوعی در پزشکی چیست؟ دیدگاه خود را در بخش کامنت ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.