راهنمای خرید تکراتو
otetmarket
همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

هوش مصنوعی می‌تواند ابطال‌پذیری فرضیه‌ های خود را بسنجد؟

برای تشخیص بافت تومور می‌توان هوش مصنوعی (هوم) را آموزش داد، امّا این هوش قادر است ابطال‌پذیری فرضیه‌ های خود را بسنجد و یا تصمیم بگیرد؟

راهنمای خرید تکراتو

گروهی از مرکز پژوهشی تشخیص پروتئین دانشگاه روهر بوخوم (PRODI) رویکرد جدیدی را توسعه می‌دهد که شفافیت و دقت تصمیم هوش مصنوعی را بهبود می‌بخشد. پژوهشگران به سرپرستی استاد تمامْ اکسل موسیگ این رویکرد را در مجله مدیکال ایمیج آنالیز به صورت آنلاین در 24 آگوست 2022 منتشر کرده‌اند.

بیشتر بخوانید: آهنگ‌آرایی داده‌ها و تصاویر تلسکوپ جیمز وب به قطعات صوتی!

ابطال‌پذیری فرضیه‌های هوش مصنوعی به دست خودش!

در این پژوهش، اکسل موسیگ، دانشمند بیوانفورماتیک با پروفسور آندریا تانپفل، رئیس مؤسسه آسیب شناسی، پروفسور آنک ریناچر-شیک متخصص سرطان‌شناسی از بیمارستان سنت جوزفِ دانشگاه روهر و پروفسور کلاوس گرورت، زیست‌فیزیکدان و مدیر موسس PRODI، همکاری کرده است.

این گروه با توسعه‌ی شبکه‌ای عصبی، هوش مصنوعی‌ای را ایجاد کردند که قادر به طبقه بندی نمونه بافت تومور است؛ برای این منظور، آنها تعداد زیادی تصویر بافت مایکروسکوپی را به هوش مصنوعی دادند که برخی از آنها حاوی تومور بودند، و برخی دیگر بدون تومور. اکسل موسیگ شرح می‌دهد:

شبکه‌های عصبی نوعی جعبه‌ی غیر شفاف هستند:  یعنی مشخص نیست که شبکه کدام ویژگی‌های شناساگر را از داده‌های آموزشی می‌آموزد.  آن‌ها در تضاد با متخصصان انسانی، توانایی توضیح تصمیمات خود را ندارند.

ابطال‌پذیری

دیوید شوماچر، دانشمند بیوانفورماتیک که در این مطالعه همکاری داشته می‌افزاید:

«برای کاربردهای پزشکی به هر روی مهم است که هوش مصنوعی قادر به توضیح تصمیم خود باشد و به عبارتی قابل اعتنا».

نقشه‌ی فعال‌سازی محل تومور را شناسایی می‌کند

بنابراین، هوش مصنوعی توضیح‌پذیر گروه بوخوم مبتنی بر گزاره‌های سنجش‌پذیر علمی است: یا به بیانی، ابطال‌پذیری فرضیه‌ها. مثلاً، اگر یک فرضیه نادرست است، چنین واقعیتی باید از راه آزمایش و آزمودن قابل اثبات یا رد باشد. معمولاً هوش مصنوعی از اصل استدلال استقرایی پیروی می‌کند: یعنی با استفاده از مشاهدات عینی، داده های آموزشی، مدل کلی‌ای ایجاد می‌کند که بر اساس آن تمام مشاهدات بعدی را نیز ارزیابی می‌نماید.

250 سال پیش، دیوید هیوم فیلسوف، به این مشکل ‌اساسی پرداخته بود: «بزرگی تعداد مشاهده‌ی قوهای سفید مهم نیست، هرگز نمی‌توانیم از این داده‌ها نتیجه بگیریم که همه‌یِ قوها سفید هستند و هیچ قوی سیاهی وجود ندارد. بنابراین، اصطلاحاً علم از منطق قیاسی استفاده می‌کند. در این رویکرد، فرضیه‌یِ کلی نقطه آغازی است. به عنوان نمونه، این فرض که همه‌یِ قوها سفید هستند، زمانی که یک قو سیاه دیده شود، باطل می‌شود». استفانی شرنر، فیزیکدانی که در این مطالعه مشارکت داشته است می گوید:

در نگاه نخست، تقریباً هوش مصنوعی استقرایی و روش علمی قیاسی ناسازگار به نظر می‌آیند، امّا پژوهشگران راهی را پیدا کرده‌اند که در آن شبکه عصبی جدید نه تنها نمونه بافت تومور یا بدون تومور را طبقه‌بندی می‌کند بلکه‌ نقشه فعال سازی بافت مایکروسکوپی را نیز شناسا می‌سازد.

نقشه‌ی فعال‌سازی بر ابطال‌پذیری فرضیه‌ بنا شده است، یعنی فعال‌سازی به دست آمده از شبکه عصبی دقیقاً با مناطق تومور نمونه مطابقت عینی دارد. برای ازمودنِ این فرضیه، می‌توان از روش‌های جهش‌زایی جهت‌دار مولکولی استفاده کرد. اکسل موسیگ نتیجه می‌گیرد:

به لطف ساختارهای بین‌رشته‌ای در PRODI، در آینده ما بهترین پیش نیازها را برای گنجاندن رویکردی مبتنی بر فرضیه در توسعه‌ی هوش مصنوعی زیست‌نشانگری که قابل اعتماد باشد داریم، به عنوان نمونه، هوش مصنوعی‌ای که قادر به تمایز دادن بین برخی زیرگروه های تومور مرتبط با درمان باشد.

بیشتر بخوانید:

شما دربارهٔ قابلیت تصمیم‌گیری هوش مصنوعی چه فکر می کنید؟ نظرات خود را در بخش کامنت‌ها با ما در میان گذاشته و اخبار تکنولوژی را از تکراتو دنبال کنید.

منبع: Sciencedaily

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر