مایکروسافت و شرکت Epic Systems قرار است از هوش مصنوعی GPT-4 برای استفاده در تهیه پیشنویس پاسخهای کارکنان سیستم های درمانی به بیماران و همچنین در تجزیه و تحلیل سوابق پزشکی استفاده کنند.
به گزارش تکناک، Epic Systems یکی از بزرگترین شرکت های نرم افزاری در حوزه سیستم درمانی در آمریکا است. گزارش شده است که نرم افزار پرونده الکترونیک سلامت (EHR) ساخت این شرکت، در بیش از 29 درصد از بیمارستان های ایالات متحده استفاده می شود و بیش از 305 میلیون بیمار دارای پرونده الکترونیکی در برنامه Epic در سراسر جهان هستند. هرچند که در گذشته، شرکت Epic به دلیل استفاده از الگوریتمهای نادرست پیشبینی در سیستم های درمانی، چندین بار مورد انتقاد قرار گرفته بود.
مایکروسافت در اطلاعیه روز دوشنبه، به شرکت Epic برای استفاده از سرویس هوش مصنوعیAzure خود اشاره میکند که دسترسی API را به مدلهای زبان بزرگ OpenAI (LLM) مانند GPT-3 و GPT-4 فراهم میکند. به زبان ساده، این یعنی شرکتها میتوانند با استفاده از پلتفرم ابری Azure شرکت مایکروسافت، از خدمات هوش مصنوعی این شرکت بهرهمند شوند.
اولین استفاده از GPT-4 به این صورت است که به پزشکان و کارکنان سیستم های درمانی اجازه می دهد تا به طور خودکار پیام های پاسخ را به بیماران پیش نویس کنند. در بیانیه مطبوعاتی این شرکت آمده است که: ادغام هوش مصنوعی در برخی از گردشهای کاری روزانه ما، بهرهوری بسیاری از پزشکان ما را افزایش میدهد و به آنها اجازه میدهد بیشتر بر وظایف بالینی خود تمرکز کنند و این چیزی است که بیماران واقعاً به آن نیاز دارند.
با این حال، مشارکت بین مایکروسافت و Epic باعث ایجاد نگرانی محققان حوزه هوش مصنوعی شده است، که این نگرانی تا حدی به دلیل توانایی GPT-4 برای طبقه بندی اطلاعاتی است که در مجموعه دادههای آن وجود ندارند.
دکتر مارگارت میچل، یک محقق هوش مصنوعی می گوید: مدل های زبانی برای تولید حقایق آموزش نمی بینند، بلکه آنها برای تولید چیزهایی که شبیه واقعیت هستند آموزش دیده اند. اگر میخواهید از هوش مصنوعی برای نوشتن داستانهای خلاقانه یا یادگیری زبان استفاده کنید، می تواند به شما کمک کند. به نظر من استفاده از هوش مصنوعی برای تکیه به مسائل بسیار مهم، اشتباه است.
میچل توضیح می دهد که استفاده از هوش مصنوعی در سیستم های درمانی، سال ها مورد مطالعه قرار گرفته است و یکی از مهم ترین نتایج این مطالعات، این است که اطلاعاتی که هوش مصنوعی می دهد، می تواند گمراه کننده نباشد و این امر تا حدی با استفاده از الگوها و دستورالعمل ها قابل انجام است.
علاوه بر این، برخی از افراد مطمئن نیستند که مدل زبانی ابزار مناسبی برای استفاده در سیستم های درمانی باشد. برخی از متخصصان حوزه هوش مصنوعی عقیده دارند که هوش مصنوعی می تواند در این حوزه بدرخشد و تعجب می کنند که چرا شرکت های بزرگ تمایلی به استفاده از آن ندارند و فکر می کنند استفاده از هوش مصنوعی در این زمینه ارزش سرمایه گذاری ندارد.
یکی دیگر از نگرانی ها برای استفاده از هوش مصنوعی در سیستم های درمانی، ناشی از سوگیری های زیاد GPT-4 است که ممکن است بر اساس جنسیت، نژاد، سن یا عوامل دیگر علیه یک سری از بیماران خاص، تبعیض قائل شود. یک سری از منتقدان می گویند:ما متوجه شدیم که GPT-4 محدودیتهای زیاد و مشابهی با مدلهای قبلی دارد یعنی این ربات به طور مثال، قادر به تولید محتوای مغرضانه و غیرقابل اعتماد است.
حتی اگر شرکت Epic از یک نسخه کاملا تنظیم شده از GPT-4 که به طور خاص برای استفاده در حوزه پزشکی آموزش داده شده است، استفاده کند، باز هم ممکن است این هوش مصنوعی دارای سوگیری هایی حتی ضعیف باشد.
با در نظر گرفتن این محدودیت ها، سیاست های خود شرکت OpenAI به طور واضح بیان می کند که مدل های آن را نمی توان برای ارائه دستورالعمل هایی در مورد نحوه درمان بیماری ها استفاده کرد. این شرکت طی بیانیه ای گفت: مدل های هوش مصنوعی برای ارائه اطلاعات پزشکی تنظیم نشده اند. شما هرگز نباید از مدل های ما برای ارائه خدمات تشخیصی یا درمانی برای بیماری های جدی استفاده کنید.
به نظر میرسد که استفاده Epic و مایکروسافت از GPT-4 به گونهای است که به صورت مستقیم (بدون حضور یک پزشک متخصص) یا با تشخیص و تجزیه و تحلیل دادههای حوزه پزشکی بیمار، از قابلیتهای آن بهره ببرند و این کار میتواند بسیار مؤثر باشد.