راهنمای خرید تکراتو
otetmarket
همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

خطرات استفاده از هوش مصنوعی در پزشکی

یک پزشک هوش مصنوعی در خبری عجیب ذکر کرده است که خطرات استفاده از هوش مصنوعی در پزشکی بسیار بیشتر از منفعت آن است.

یک پزشک هوش مصنوعی اعلام کرده است که خطرات استفاده از هوش مصنوعی در پزشکی بسار زیاد است. وی عنوان کرد که این تکنولوژی می‌تواند در علم پزشکی سوگیری ایجاد کرده و در بین افراد سفید پوست و سیاه پوست تبعیض قائل شود. علی‌رغم اینکه هوش مصنوعی برای رسیدن به اهداف خود به قوانین و دام‌های فوری نیاز دارد می‌توان گفت که ممکن است در کارش اشتباهی رخ دهد.

راهنمای خرید تکراتو

بیشتر بخوانید: کسب‌وکارهای کوچک استفاده از هوش مصنوعی را در روند بازاریابی ترجیح می‌دهند!

خطرات استفاده از هوش مصنوعی در پزشکی فاش شد

به نقل از نشریه آمریکایی دهیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت:

اگر از هوش مصنوعی درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

خطرات استفاده از هوش مصنوعی در پزشکی فاش شد
سم آلتمن، مدیرعامل OpenAI

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود.

این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید:

«بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.»

خارج از پوست، الگوریتم‌های پزشکی که قبلاً به‌کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل‌توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش‌بینی‌های یک الگوریتم اختصاصی را که قبلاً روی میلیون‌ها بیمار به‌کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به‌منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند.

اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه‌پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلاً مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. درحالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است:

متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند.

فناوری‌های تشخیص چهره مبتنی‌بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به‌دلیل تشخیص چهره مبتنی‌بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی‌اش را مختل کند.

خطرات استفاده از هوش مصنوعی در پزشکی فاش شد

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد:

از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به‌جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود.

در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، «امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.»

بیشتر بخوانید:

نظر شما درباره‌ خطرات استفاده از هوش مصنوعی در پزشکی چیست؟ دیدگاه خود را در بخش کامنت ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر