گوگل MedLM، زیرمجموعهای از هوش مصنوعی تنظیمشده برای استفاده در حوزه پزشکی را بهمنظور پاسخگویی به پرسشهای تخصصی دردسترس کاربران گوگل کلود در ایالات متحده قرار داده است.
بهگزارش تکناک، گوگل MedLM، زیرمجموعهای از هوش مصنوعی تنظیمشده برای استفاده در پزشکی را معرفی کرد. این مدل براساس Med-PaLM 2 توسعه یافته است و به دهها سؤال تخصصی پزشکی میتواند پاسخ دهد و هماکنون برای کاربران Google Cloud در ایالات متحده دردسترس است. همچنین، این ابزار ازطریق Vertex AI، پلتفرم توسعهدهندگان هوش مصنوعی کاملاً مدیریتشده گوگل، در فهرست سفید قرار گرفته است.
در حال حاضر دو مدل MedLM در دسترس است: یک مدل بزرگتر که برای آنچه گوگل به عنوان وظایف پیچیده توصیف می کند، طراحی شده است و یک مدل کوچکتر و با قابلیت تنظیم برای مقیاسپذیری در وظایف مختلف.
گوگل می گوید که یکی از کاربران اولیه MedLM، اپراتور تسهیلات انتفاعی HCA Healthcare، این مدل ها را بهکمک پزشکها آزمایش می کند تا به تهیه یادداشتهای مرتبط با بیمار در بخش اورژانس کمک کند. آزمایشگر دیگری MedLM را در موتور شواهد خود برای شناسایی و طبقهبندی نشانگرهای جدید استفاده کرده است.
گوگل و مایکروسافت و آمازون بهشدت در حال رقابت با یکدیگر هستند تا بازار هوش مصنوعی حوزه مراقبتهای درمانی را تا سال 2032 به ارزش دههامیلیارد دلار برسانند. اخیراً آمازون AWS HealthScribe را معرفی کرده است که از هوش مصنوعی مولد برای رونویسی و خلاصه و تجزیهوتحلیل کردن یادداشتهای پزشک استفاده میکند.
مایکروسافت نیز در حال اجرای آزمایشی محصولات مختلف مراقبتهای درمانی مبتنیبر هوش مصنوعی است؛ ازجمله برنامههای دستیار پزشکی که براساس مدلهای زبان بزرگ پشتیبانی می شوند. بااینهمه، در استفاده از چنین فناوری باید احتیاط شود؛ هرچند تاکنون هوش مصنوعی در مراقبتهای درمانی با موفقیتهای متفاوتی روبهرو شده است.
بابیلون هلث یکی از استارتآپهای هوش مصنوعی است که سرویس بهداشت ملی بریتانیا از آن پشتیبانی میکند. این استارتآپ بارها بهدلیل ادعاهایی مبنیبر اینکه فناوری تشخیص بیماری آن میتواند بهتر از پزشکان عمل کند، تحت بررسی قرار گرفته است. همچنین، شرکت IBM مجبور شد بخش بهداشت واتسون که متمرکز بر هوش مصنوعی بود، با ضرر بفروشد؛ زیرا مشکلات فنی به ازبینرفتن شراکت مشتریان منجر شد.
شاید بهنظر برسد مدلهای هوش مصنوعی مولد مانند مدلهای MedLM گوگل بسیار پیچیدهتر از مدلهای قبلی هستند؛ اما تحقیقات نشان داده است که مدلهای مولد در پاسخ به پرسشهای مربوط به مراقبتهای درمانی، حتی در جوابدادن به سؤالات نسبتاً ابتدایی دقیق نیستند.
در مطالعهای که گروهی از چشمپزشکان انجام دادند، از ChatGPT و چتبات بارد گوگل درباره بیماریهای چشمی سؤلاتی شد که آنان به این نتیجه رسیدند اکثر پاسخهای هر سه ابزار کاملاً غیرمعمول بودند. ChatGPT برنامههای درمانی سرطان سرشار از خطاهای کشنده را پیشنهاد میکند. ChatGPT و بارد نیز در پاسخ به پرسشهایی درباره عملکرد کلیه و ظرفیت ریه و پوست، ایدههای پزشکی نژادپرستانه را رد میکنند.
اکتبر۲۰۲۳، سازمان جهانی بهداشت (WHO) درباره خطرهای ناشی از استفاده از هوش مصنوعی مولد در مراقبتهای درمانی هشدار داد و به ظرفیتهای این مدلها برای ارائه پاسخهای اشتباه، انتشار اطلاعات نادرست درزمینه مسائل بهداشتی و افشای دادههای بهداشتی یا سایر اطلاعات حساس اشاره کرد.
ازآنجاکه مدلها گهگاه دادههای آموزشی را بهخاطر میسپارند و بخشهایی از این دادهها را با دستور مناسب برمیگردانند، دور از ذهن نیست مدلهایی که با سوابق پزشکی آموزش دیدهاند، بهطور ناخواسته آن سوابق را افشا کنند.
سازمان جهانی بهداشت در بیانیهای اعلام کرد:
درحالیکه WHO مشتاق استفاده مناسب از فناوریها، ازجمله هوش مصنوعی برای حمایت از کادر درمان، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد احتیاطی که معمولاً برای فناوریهای جدید در نظر گرفته میشود، بهطور مداوم با هوش مصنوعی اعمال نمیشود،. پذیرش سریع سیستمهای آزمایشنشده میتواند به اشتباههای کارکنان کادر درمان، آسیبرساندن به بیماران، کاهش اعتماد به هوش مصنوعی و درنتیجه تضعیف یا تأخیر مزایای درازمدت استفاده از چنین فناوریهایی در سراسر جهان منجر شود.
دراینمیان، گوگل بارها ادعا کرده است که در انتشار ابزارهای مراقبت درمانی هوش مصنوعی بسیار محتاطانه عمل میکند.