محققان ابزارهایی را توسعه داده اند تا ویژگی های مورد استفاده در مدل های یادگیری ماشینی را برای کاربران نهایی قابل درک تر کنند.
به گزارش تکناک، روشهای توضیحی که به کاربران کمک میکنند مدلهای یادگیری ماشینی را درک کنند و به آنها اعتماد کنند، اغلب توضیح میدهند که تا چه اندازه ویژگیهای خاصی که در مدل استفاده میشود در پیشبینی آن نقش دارند.
برای مثال، اگر مدلی خطر ابتلای بیمار به بیماری قلبی را پیشبینی کند، ممکن است پزشک بخواهد بداند دادههای ضربان قلب بیمار چقدر بر این پیشبینی تأثیر میگذارد.
اما اگر آن ویژگیها آنقدر پیچیده باشند که کاربر نتواند آنها را درک کند، آیا روش توضیح فایدهای دارد؟
محققان MIT در تلاش هستند تا تفسیرپذیری ویژگی ها را بهبود بخشند تا تصمیم گیرندگان با استفاده از خروجی مدل های یادگیری ماشینی راحت تر باشند. با تکیه بر سالها کار میدانی، آنها یک طبقهبندی برای کمک به توسعهدهندگان یادگیری ماشین ایجاد کردند تا ویژگیهایی را ابداع کنند که درک آنها برای مخاطب هدفشان آسانتر باشد.
الکساندرا زیتک، دانشجوی دکتری مهندسی برق و علوم کامپیوتر و نویسنده اصلی مقاله ای در زمینه معرفی طبقه بندی میگوید: ما متوجه شدیم که در دنیای واقعی، حتی اگر از روشهای پیشرفته برای توضیح مدلهای یادگیری ماشینی استفاده کنیم، هنوز سردرگمی زیادی ناشی از ویژگیها، نه از خود مدل، وجود دارد.
برای ایجاد طبقه بندی، محققان ویژگی هایی را تعریف کردند که ویژگی ها را برای پنج نوع کاربر قابل تفسیر می کند، از کارشناسان هوش مصنوعی گرفته تا افرادی که تحت تأثیر پیش بینی مدل یادگیری ماشینی قرار می گیرند. آنها همچنین دستورالعملهایی را ارائه میدهند که چگونه سازندگان مدل میتوانند ویژگیها را به قالبهایی تبدیل کنند که درک آن برای افراد عادی آسانتر باشد.
آنها امیدوارند که کار آنها برای سازندگان مدل الهام بخش باشد تا از ابتدای فرآیند توسعه، به جای تلاش برای کار معکوس و تمرکز بر توضیح پذیری، ویژگی های تفسیر پذیری را مورد توجه قرار دهند.
از نویسندگان این مطالعه می توان به دونگیو لیو ، فوق دکترای MIT اشاره کرد و پروفسور لوره برتی اکیل مدیر تحقیقات IRD اشاره کرد. این تحقیق در نسخه ژوئن انجمن ماشینهای محاسباتی در مورد کشف دانش و دادهکاوی در خبرنامه Explorations منتشر شد.
درس های دنیای واقعی
ویژگیها متغیرهای ورودی هستند که به مدلهای یادگیری ماشینی داده میشوند. آنها معمولاً از ستون های یک مجموعه داده ترسیم می شوند.
دونگیو لیو توضیح میدهد که دانشمندان داده معمولاً ویژگیهایی را برای مدل انتخاب میکنند و به دست میآورند، و عمدتاً بر اطمینان از توسعه ویژگیها برای بهبود دقت مدل تمرکز میکنند. آنها به این موضوع که آیا تصمیمگیرنده میتواند این ویژگی ها را درک کند یا خیر توجهی نمیکنند.
برای چندین سال، او و تیمش با تصمیمگیرندگان برای شناسایی چالشهای قابلیت استفاده در یادگیری ماشین کار کردهاند. این متخصصان حوزه، که اکثر آنها فاقد دانش یادگیری ماشینی هستند، اغلب به مدلها اعتماد ندارند زیرا ویژگیهایی را که بر پیشبینیها تأثیر میگذارند، درک نمیکنند.
برای یک پروژه، آنها با پزشکان بخش ICU یک بیمارستان همکاری کردند که از یادگیری ماشینی برای پیشبینی خطراتی که یک بیمار پس از جراحی قلب با آن مواجه میشود، استفاده کردند. برخی از ویژگیها بهعنوان مقادیر جمعآوری شده،
مانند روند ضربان قلب بیمار در طول دوره نقاهت، مورد بررسی قرار گرفتند. در حالی که ویژگیهایی که به این روش کدگذاری شدهاند «مدل آماده» بودند (مدل میتوانست دادهها را پردازش کند)، پزشکان نمیدانستند چگونه محاسبه میشوند. دونگیو لیو میگوید، آنها ترجیح میدهند ببینند که چگونه این ویژگیهای جمعآوری شده با مقادیر اصلی مرتبط هستند، بنابراین میتوانند ناهنجاریها را در ضربان قلب بیمار شناسایی کنند.
در مقابل، گروهی از دانشمندان یادگیرنده ویژگی هایی را ترجیح می دهند که تجمیع شده باشند. به جای داشتن قابلیتی مانند «تعداد پستهایی که یک دانشآموز در انجمنهای گفتگو منتشر میکند»، ترجیح میدهند ویژگیهای مرتبط را با هم گروهبندی کنند و با عباراتی که میدانند برچسبگذاری شوند، مانند «مشارکت».
با تمرکز بر تفسیرپذیری، یک اندازه ثابت برای همه مناسب نیست. وقتی از منطقه ای به منطقه دیگر می روید، نیازهای مختلفی وجود دارد. پروفسور لوره برتی اکیل میگوید که تفسیرپذیری خود سطوح مختلفی دارد.
این ایده که یک اندازه برای همه مناسب نیست، کلید طبقه بندی محققان است. آنها ویژگی هایی را تعریف می کنند که می توانند ویژگی ها را کم و بیش برای تصمیم گیرندگان مختلف قابل تفسیر کنند و مشخص کنند که چه ویژگی هایی احتمالاً برای کاربران خاص مهم هستند.
به عنوان مثال، توسعه دهندگان یادگیری ماشینی ممکن است بر داشتن ویژگی هایی تمرکز کنند که با مدل سازگار و قابل پیش بینی است، به این معنی که انتظار می رود عملکرد مدل را بهبود بخشند.
به گفته پروفسور لوره برتی اکیل ، منطق طبقهبندی میگوید، اگر ویژگیهای قابل تفسیری ایجاد میکنید، تا چه سطحی قابل تفسیر هستند؟ بسته به نوع متخصصان دامنه ای که با آنها کار می کنید، ممکن است به همه سطوح نیاز نداشته باشید.
تفسیرپذیری را در اولویت قرار دهیم
محققان همچنین تکنیکهای مهندسی ویژگیهایی را که یک توسعهدهنده میتواند برای تفسیرپذیرتر کردن ویژگیها برای یک مخاطب خاص استفاده کند، تشریح میکنند.
مهندسی ویژگی فرآیندی است که در آن دانشمندان داده با استفاده از تکنیکهایی مانند جمعآوری دادهها یا عادیسازی مقادیر، دادهها را به قالبی که مدلهای یادگیری ماشینی میتوانند پردازش کنند، تبدیل میکنند. اکثر مدلها همچنین نمیتوانند دادههای دستهبندی را پردازش کنند، مگر اینکه به یک کد عددی تبدیل شوند. فهم این تبدیل ها برای افراد عادی غیرممکن است.
دونگیو لیو میگوید ایجاد ویژگیهای قابل تفسیر ممکن است شامل لغو برخی از آن کدگذاری ها باشد. به عنوان مثال، یک تکنیک مهندسی ویژگی متداول، مقادیر وسیعی از داده مربوط به سن را سازماندهی می کند تا همه آنها سال یکسانی داشته باشند. برای تفسیرپذیرتر کردن این ویژگیها، میتوان محدودههای سنی را با استفاده از اصطلاحات انسانی مانند نوزاد، کودک نوپا، کودک و نوجوان گروهبندی کرد. Liu می افزاید: یا به جای استفاده از یک ویژگی تبدیل شده مانند ضربان قلب میانگین، یک ویژگی قابل تفسیر ممکن است به سادگی نمایانگر نرخ ضربان قلب واقعی باشد.
در بسیاری از حوزهها، مبادله بین ویژگیهای قابل تفسیر و دقت مدل در واقع بسیار کم است. بهعنوان مثال، زمانی که ما با غربالکنندههای رفاه کودکان کار میکردیم، مدل را تنها با استفاده از ویژگیهایی که با تعاریف ما برای تفسیرپذیری مطابقت داشتند، دوباره آموزش دادیم و کاهش عملکرد تقریباً ناچیز بود.
با تکیه بر این کار، محققان در حال توسعه سیستمی هستند که توسعهدهنده مدل را قادر میسازد تا تبدیلهای ویژگیهای پیچیده را به شیوهای کارآمدتر مدیریت کند تا توضیحات انسان محور برای مدلهای یادگیری ماشین ایجاد کند. این سیستم جدید همچنین الگوریتم های طراحی شده برای توضیح مجموعه داده های آماده مدل را به قالب هایی تبدیل می کند که برای تصمیم گیرندگان قابل درک باشد.