برای تشخیص بافت تومور میتوان هوش مصنوعی (هوم) را آموزش داد، امّا این هوش قادر است ابطالپذیری فرضیه های خود را بسنجد و یا تصمیم بگیرد؟
گروهی از مرکز پژوهشی تشخیص پروتئین دانشگاه روهر بوخوم (PRODI) رویکرد جدیدی را توسعه میدهد که شفافیت و دقت تصمیم هوش مصنوعی را بهبود میبخشد. پژوهشگران به سرپرستی استاد تمامْ اکسل موسیگ این رویکرد را در مجله مدیکال ایمیج آنالیز به صورت آنلاین در 24 آگوست 2022 منتشر کردهاند.
بیشتر بخوانید: آهنگآرایی دادهها و تصاویر تلسکوپ جیمز وب به قطعات صوتی!
ابطالپذیری فرضیههای هوش مصنوعی به دست خودش!
در این پژوهش، اکسل موسیگ، دانشمند بیوانفورماتیک با پروفسور آندریا تانپفل، رئیس مؤسسه آسیب شناسی، پروفسور آنک ریناچر-شیک متخصص سرطانشناسی از بیمارستان سنت جوزفِ دانشگاه روهر و پروفسور کلاوس گرورت، زیستفیزیکدان و مدیر موسس PRODI، همکاری کرده است.
این گروه با توسعهی شبکهای عصبی، هوش مصنوعیای را ایجاد کردند که قادر به طبقه بندی نمونه بافت تومور است؛ برای این منظور، آنها تعداد زیادی تصویر بافت مایکروسکوپی را به هوش مصنوعی دادند که برخی از آنها حاوی تومور بودند، و برخی دیگر بدون تومور. اکسل موسیگ شرح میدهد:
شبکههای عصبی نوعی جعبهی غیر شفاف هستند: یعنی مشخص نیست که شبکه کدام ویژگیهای شناساگر را از دادههای آموزشی میآموزد. آنها در تضاد با متخصصان انسانی، توانایی توضیح تصمیمات خود را ندارند.
دیوید شوماچر، دانشمند بیوانفورماتیک که در این مطالعه همکاری داشته میافزاید:
«برای کاربردهای پزشکی به هر روی مهم است که هوش مصنوعی قادر به توضیح تصمیم خود باشد و به عبارتی قابل اعتنا».
نقشهی فعالسازی محل تومور را شناسایی میکند
بنابراین، هوش مصنوعی توضیحپذیر گروه بوخوم مبتنی بر گزارههای سنجشپذیر علمی است: یا به بیانی، ابطالپذیری فرضیهها. مثلاً، اگر یک فرضیه نادرست است، چنین واقعیتی باید از راه آزمایش و آزمودن قابل اثبات یا رد باشد. معمولاً هوش مصنوعی از اصل استدلال استقرایی پیروی میکند: یعنی با استفاده از مشاهدات عینی، داده های آموزشی، مدل کلیای ایجاد میکند که بر اساس آن تمام مشاهدات بعدی را نیز ارزیابی مینماید.
250 سال پیش، دیوید هیوم فیلسوف، به این مشکل اساسی پرداخته بود: «بزرگی تعداد مشاهدهی قوهای سفید مهم نیست، هرگز نمیتوانیم از این دادهها نتیجه بگیریم که همهیِ قوها سفید هستند و هیچ قوی سیاهی وجود ندارد. بنابراین، اصطلاحاً علم از منطق قیاسی استفاده میکند. در این رویکرد، فرضیهیِ کلی نقطه آغازی است. به عنوان نمونه، این فرض که همهیِ قوها سفید هستند، زمانی که یک قو سیاه دیده شود، باطل میشود». استفانی شرنر، فیزیکدانی که در این مطالعه مشارکت داشته است می گوید:
در نگاه نخست، تقریباً هوش مصنوعی استقرایی و روش علمی قیاسی ناسازگار به نظر میآیند، امّا پژوهشگران راهی را پیدا کردهاند که در آن شبکه عصبی جدید نه تنها نمونه بافت تومور یا بدون تومور را طبقهبندی میکند بلکه نقشه فعال سازی بافت مایکروسکوپی را نیز شناسا میسازد.
نقشهی فعالسازی بر ابطالپذیری فرضیه بنا شده است، یعنی فعالسازی به دست آمده از شبکه عصبی دقیقاً با مناطق تومور نمونه مطابقت عینی دارد. برای ازمودنِ این فرضیه، میتوان از روشهای جهشزایی جهتدار مولکولی استفاده کرد. اکسل موسیگ نتیجه میگیرد:
به لطف ساختارهای بینرشتهای در PRODI، در آینده ما بهترین پیش نیازها را برای گنجاندن رویکردی مبتنی بر فرضیه در توسعهی هوش مصنوعی زیستنشانگری که قابل اعتماد باشد داریم، به عنوان نمونه، هوش مصنوعیای که قادر به تمایز دادن بین برخی زیرگروه های تومور مرتبط با درمان باشد.
بیشتر بخوانید:
- اسرار پیدایش زمین با مطالعهی شهاب سنگ مریخی کهنسال فاش شد!
- مهندسی مواد و دیانای؛ انقلابی در صنعت الکترونیک در راه است؟
- کشف یک اَبَر زمین زیستپذیر که تنها 37 سال نوری با ما فاصله دارد [+عکس]
- پیوند فوتونی راه پژوهشگران برای اینترنت کوانتومی تمام سیلیکونی
- چرا باید قید ایجاد خودآگاهی مصنوعی را بزنیم؟
شما دربارهٔ قابلیت تصمیمگیری هوش مصنوعی چه فکر می کنید؟ نظرات خود را در بخش کامنتها با ما در میان گذاشته و اخبار تکنولوژی را از تکراتو دنبال کنید.
منبع: Sciencedaily