طبقه بندی جدیدی برای مدل‌های یادگیری ماشینی ابداع شد

محققان ابزارهایی را توسعه داده اند تا ویژگی های مورد استفاده در مدل های یادگیری ماشینی را برای کاربران نهایی قابل درک تر کنند.

محققان ابزارهایی را توسعه داده اند تا ویژگی های مورد استفاده در مدل های یادگیری ماشینی را برای کاربران نهایی قابل درک تر کنند.

به گزارش تکناک، روش‌های توضیحی که به کاربران کمک می‌کنند مدل‌های یادگیری ماشینی را درک کنند و به آن‌ها اعتماد کنند، اغلب توضیح می‌دهند که تا چه اندازه ویژگی‌های خاصی که در مدل استفاده می‌شود در پیش‌بینی آن نقش دارند.

برای مثال، اگر مدلی خطر ابتلای بیمار به بیماری قلبی را پیش‌بینی کند، ممکن است پزشک بخواهد بداند داده‌های ضربان قلب بیمار چقدر بر این پیش‌بینی تأثیر می‌گذارد.

اما اگر آن ویژگی‌ها آنقدر پیچیده باشند که کاربر نتواند آنها را درک کند، آیا روش توضیح فایده‌ای دارد؟

محققان MIT در تلاش هستند تا تفسیرپذیری ویژگی ها را بهبود بخشند تا تصمیم گیرندگان با استفاده از خروجی مدل های یادگیری ماشینی راحت تر باشند. با تکیه بر سال‌ها کار میدانی، آنها یک طبقه‌بندی برای کمک به توسعه‌دهندگان یادگیری ماشین ایجاد کردند تا ویژگی‌هایی را ابداع کنند که درک آنها برای مخاطب هدفشان آسان‌تر باشد.

الکساندرا زیتک، دانشجوی دکتری مهندسی برق و علوم کامپیوتر و نویسنده اصلی مقاله ای در زمینه معرفی طبقه بندی می‌گوید: ما متوجه شدیم که در دنیای واقعی، حتی اگر از روش‌های پیشرفته برای توضیح مدل‌های یادگیری ماشینی استفاده کنیم، هنوز سردرگمی زیادی ناشی از ویژگی‌ها، نه از خود مدل، وجود دارد.

برای ایجاد طبقه بندی، محققان ویژگی هایی را تعریف کردند که ویژگی ها را برای پنج نوع کاربر قابل تفسیر می کند، از کارشناسان هوش مصنوعی گرفته تا افرادی که تحت تأثیر پیش بینی مدل یادگیری ماشینی قرار می گیرند. آنها همچنین دستورالعمل‌هایی را ارائه می‌دهند که چگونه سازندگان مدل می‌توانند ویژگی‌ها را به قالب‌هایی تبدیل کنند که درک آن برای افراد عادی آسان‌تر باشد.

آنها امیدوارند که کار آنها برای سازندگان مدل الهام بخش باشد تا از ابتدای فرآیند توسعه، به جای تلاش برای کار معکوس و تمرکز بر توضیح پذیری، ویژگی های تفسیر پذیری را مورد توجه قرار دهند.

از نویسندگان این مطالعه می توان به دونگیو لیو ، فوق دکترای MIT اشاره کرد و پروفسور لوره برتی اکیل  مدیر تحقیقات IRD اشاره کرد. این تحقیق در نسخه ژوئن انجمن ماشین‌های محاسباتی در مورد کشف دانش و داده‌کاوی در خبرنامه Explorations منتشر شد.

درس های دنیای واقعی

ویژگی‌ها متغیرهای ورودی هستند که به مدل‌های یادگیری ماشینی داده می‌شوند. آنها معمولاً از ستون های یک مجموعه داده ترسیم می شوند.

دونگیو لیو توضیح می‌دهد که دانشمندان داده معمولاً ویژگی‌هایی را برای مدل انتخاب می‌کنند و به دست می‌آورند، و عمدتاً بر اطمینان از توسعه ویژگی‌ها برای بهبود دقت مدل تمرکز می‌کنند. آنها به این موضوع که آیا تصمیم‌گیرنده می‌تواند این ویژگی ها را درک کند یا خیر توجهی نمیکنند.

برای چندین سال، او و تیمش با تصمیم‌گیرندگان برای شناسایی چالش‌های قابلیت استفاده در یادگیری ماشین کار کرده‌اند. این متخصصان حوزه، که اکثر آنها فاقد دانش یادگیری ماشینی هستند، اغلب به مدل‌ها اعتماد ندارند زیرا ویژگی‌هایی را که بر پیش‌بینی‌ها تأثیر می‌گذارند، درک نمی‌کنند.

برای یک پروژه، آنها با پزشکان بخش ICU یک بیمارستان همکاری کردند که از یادگیری ماشینی برای پیش‌بینی خطراتی که یک بیمار پس از جراحی قلب با آن مواجه می‌شود، استفاده کردند. برخی از ویژگی‌ها به‌عنوان مقادیر جمع‌آوری شده،

مانند روند ضربان قلب بیمار در طول دوره نقاهت، مورد بررسی قرار گرفتند. در حالی که ویژگی‌هایی که به این روش کدگذاری شده‌اند «مدل آماده» بودند (مدل می‌توانست داده‌ها را پردازش کند)، پزشکان نمی‌دانستند چگونه محاسبه می‌شوند. دونگیو لیو می‌گوید، آن‌ها ترجیح می‌دهند ببینند که چگونه این ویژگی‌های جمع‌آوری شده با مقادیر اصلی مرتبط هستند، بنابراین می‌توانند ناهنجاری‌ها را در ضربان قلب بیمار شناسایی کنند.

در مقابل، گروهی از دانشمندان یادگیرنده ویژگی هایی را ترجیح می دهند که تجمیع شده باشند. به جای داشتن قابلیتی مانند «تعداد پست‌هایی که یک دانش‌آموز در انجمن‌های گفتگو منتشر می‌کند»، ترجیح می‌دهند ویژگی‌های مرتبط را با هم گروه‌بندی کنند و با عباراتی که می‌دانند برچسب‌گذاری شوند، مانند «مشارکت».

با تمرکز بر تفسیرپذیری، یک اندازه ثابت برای همه مناسب نیست. وقتی از منطقه ای به منطقه دیگر می روید، نیازهای مختلفی وجود دارد. پروفسور لوره برتی اکیل  می‌گوید که تفسیرپذیری خود سطوح مختلفی دارد.

این ایده که یک اندازه برای همه مناسب نیست، کلید طبقه بندی محققان است. آنها ویژگی هایی را تعریف می کنند که می توانند ویژگی ها را کم و بیش برای تصمیم گیرندگان مختلف قابل تفسیر کنند و مشخص کنند که چه ویژگی هایی احتمالاً برای کاربران خاص مهم هستند.

به عنوان مثال، توسعه دهندگان یادگیری ماشینی ممکن است بر داشتن ویژگی هایی تمرکز کنند که با مدل سازگار و قابل پیش بینی است، به این معنی که انتظار می رود عملکرد مدل را بهبود بخشند.

به گفته پروفسور لوره برتی اکیل  ، منطق طبقه‌بندی می‌گوید، اگر ویژگی‌های قابل تفسیری ایجاد می‌کنید، تا چه سطحی قابل تفسیر هستند؟ بسته به نوع متخصصان دامنه ای که با آنها کار می کنید، ممکن است به همه سطوح نیاز نداشته باشید.

تفسیرپذیری را در اولویت قرار دهیم

محققان همچنین تکنیک‌های مهندسی ویژگی‌هایی را که یک توسعه‌دهنده می‌تواند برای تفسیرپذیرتر کردن ویژگی‌ها برای یک مخاطب خاص استفاده کند، تشریح می‌کنند.

مهندسی ویژگی فرآیندی است که در آن دانشمندان داده با استفاده از تکنیک‌هایی مانند جمع‌آوری داده‌ها یا عادی‌سازی مقادیر، داده‌ها را به قالبی که مدل‌های یادگیری ماشینی می‌توانند پردازش کنند، تبدیل می‌کنند. اکثر مدل‌ها همچنین نمی‌توانند داده‌های دسته‌بندی را پردازش کنند، مگر اینکه به یک کد عددی تبدیل شوند. فهم این تبدیل ها برای افراد عادی غیرممکن است.

دونگیو لیو می‌گوید ایجاد ویژگی‌های قابل تفسیر ممکن است شامل لغو برخی از آن کدگذاری ها باشد. به عنوان مثال، یک تکنیک مهندسی ویژگی متداول، مقادیر وسیعی از داده مربوط به سن را سازماندهی می کند تا همه آنها سال یکسانی داشته باشند. برای تفسیرپذیرتر کردن این ویژگی‌ها، می‌توان محدوده‌های سنی را با استفاده از اصطلاحات انسانی مانند نوزاد، کودک نوپا، کودک و نوجوان گروه‌بندی کرد. Liu می افزاید: یا به جای استفاده از یک ویژگی تبدیل شده مانند ضربان قلب میانگین، یک ویژگی قابل تفسیر ممکن است به سادگی نمایانگر نرخ ضربان قلب واقعی باشد.

در بسیاری از حوزه‌ها، مبادله بین ویژگی‌های قابل تفسیر و دقت مدل در واقع بسیار کم است. به‌عنوان مثال، زمانی که ما با غربال‌کننده‌های رفاه کودکان کار می‌کردیم، مدل را تنها با استفاده از ویژگی‌هایی که با تعاریف ما برای تفسیرپذیری مطابقت داشتند، دوباره آموزش دادیم و کاهش عملکرد تقریباً ناچیز بود.

با تکیه بر این کار، محققان در حال توسعه سیستمی هستند که توسعه‌دهنده مدل را قادر می‌سازد تا تبدیل‌های ویژگی‌های پیچیده را به شیوه‌ای کارآمدتر مدیریت کند تا توضیحات انسان محور برای مدل‌های یادگیری ماشین ایجاد کند. این سیستم جدید همچنین الگوریتم های طراحی شده برای توضیح مجموعه داده های آماده مدل را به قالب هایی تبدیل می کند که برای تصمیم گیرندگان قابل درک باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.