رمز گشایی از نحوه تصمیم گیری دقیق هوش مصنوعی

رمز گشایی از نحوه تصمیم گیری دقیق هوش مصنوعی

هوش مصنوعی (AI) را می توان برای تشخیص بافت حاوی تومور در تصویر آموزش داد. با این حال، نحوه تصمیم گیری دقیق هوش مصنوعی تاکنون یک راز بوده‌است.

به گزارش تک ناک، تیمی از مرکز تحقیقات تشخیص پروتئین (PRODI) در دانشگاه روهر بوخوم در حال توسعه رویکرد جدیدی است که تصمیم هوش مصنوعی را شفاف و در نتیجه قابل اعتمادتر خواهد کرد. محققان به سرپرستی پروفسور اکسل موسیگ این رویکرد را در ژورنال آنالیز تصویر پزشکی توصیف کردند.

برای این مطالعه، اکسل موسیگ، دانشمند بیوانفورماتیک، با پروفسور آندریا تاناپفل، رئیس مؤسسه آسیب شناسی، پروفسور آنک ریناچر، شیک انکولوژیست از بیمارستان دانشگاه سنت جوزف روهر ، و پروفسور کلاوس گرورت، بیوفیزیکدان و مدیرو مؤسس پرودی همکاری کردند.

این گروه یک شبکه عصبی، یعنی یک هوش مصنوعی، با توانایی شناسایی و طبقه بندی نمونه بافتی حاوی تومور اختراع کردند. برای این منظور، آنها تعداد زیادی تصویر بافت میکروسکوپی را به هوش مصنوعی دادند که برخی از آنها حاوی تومور بودند، در حالی که برخی دیگر بدون تومور بودند.

شبکه عصبی 1/1 در ابتدا با مجموعه داده های زیادی آموزش داده می شود تا بتواند تصاویر بافت حاوی تومور را از بافت بدون تومور تشخیص دهد (ورودی از بالا در نمودار). سپس با یک تصویر بافت جدید از یک آزمایش (ورودی از سمت چپ) ارائه می شود. از طریق استدلال استقرایی، شبکه عصبی طبقه‌بندی «حاوی تومور» یا «بدون تومور» را برای تصویر مربوطه ایجاد می‌کند. در همان زمان، یک نقشه فعال سازی تصویر بافت ایجاد می کند. نقشه فعال سازی از فرآیند یادگیری استقرایی پدید آمده است و در ابتدا با واقعیت ارتباطی ندارد. همبستگی با این فرضیه ابطال پذیر ایجاد می شود که مناطق با فعال سازی بالا دقیقاً با مناطق تومور در نمونه مطابقت دارند. این فرضیه را می توان با آزمایش های بیشتر آزمایش کرد. این بدان معنی است که رویکرد از منطق قیاسی پیروی می کند

اکسل موسیگ توضیح می‌دهد: شبکه‌های عصبی در ابتدا یک جعبه سیاه هستند، مشخص نیست که شبکه کدام ویژگی‌های شناسایی را از داده‌های آموزشی می‌آموزد. برخلاف متخصصان انسانی، آنها توانایی توضیح تصمیمات خود را ندارند. دیوید شوماچر، دانشمند بیوانفورماتیک، که در این مطالعه همکاری داشت، می‌افزاید: با این حال، برای کاربردهای پزشکی به‌ویژه، مهم است که هوش مصنوعی قادر به توضیح و در نتیجه قابل اعتماد باشد.

پایه تصمیم گیری هوش مصنوعی بر اساس فرضیه های آزمون پذیر است

هوش مصنوعی تیم بوخوم تنها قابلیت توضیح بر اظهارات معنادار شناخته شده برای علم را دارد. بر اساس فرضیه های آزمون پذیر اگر یک فرضیه نادرست است، این واقعیت باید از طریق آزمایش قابل اثبات باشد. هوش مصنوعی معمولاً از اصل استدلال استقرایی پیروی می کند. هوش مصنوعی با استفاده از مشاهدات عینی، یعنی داده های آموزشی، یک مدل کلی ایجاد می کند که بر اساس آن تمام مشاهدات بعدی را ارزیابی می کند.

مشکل اساسی 250 سال پیش توسط فیلسوف دیوید هیوم توصیف شده بود و به راحتی می توان آن را توضیح داد. مهم نیست که چقدر قوهای سفید را مشاهده می کنیم، هرگز نمی توانیم از این داده ها نتیجه بگیریم که همه قوها سفید هستند و هیچ قو سیاهی وجود ندارد. بنابراین علم از منطق به اصطلاح قیاسی استفاده می کند. در این رویکرد، یک فرضیه کلی نقطه شروع است. به عنوان مثال، این فرضیه که همه قوها سفید هستند، زمانی که یک قو سیاه دیده می شود، رد می شود.

نقشه فعال سازی محل شناسایی تومور را نشان می دهد

استفانی شرنر، فیزیکدانی که به همین ترتیب در این مطالعه مشارکت داشته است، می گوید: «در نگاه اول، هوش مصنوعی استقرایی و روش علمی قیاسی تقریباً ناسازگار به نظر می رسند. اما محققان راهی پیدا کردند. شبکه عصبی جدید آنها نه تنها می تواند استنتاج کند  که آیا نمونه بافت حاوی تومور است یا عاری از تومور، بلکه نقشه فعال سازی بافت میکروسکوپی را نیز به تصویر می‌کشد.

نقشه فعال سازی بر اساس یک فرضیه آزمون پذیر است، یعنی اینکه فعال سازی به دست آمده از شبکه عصبی دقیقاً با مناطق تومور در نمونه مطابقت دارد. برای آزمایش این فرضیه می توان از روش های مولکولی ویژه خاستگاه استفاده کرد.

اکسل موسیگ نتیجه می گیرد: به لطف ساختارهای بین رشته ای در PRODI، ما بهترین پیش نیازها را برای ترکیب رویکرد مبتنی بر فرضیه در توسعه شاخص زیستی هوش مصنوعی قابل اعتماد در آینده در اختیار داریم، به عنوان مثال قادر به تمایز بین برخی زیرگروه های تومور مرتبط با درمان خواهیم بود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

technoc-instagram