شرکت OpenAI با شکایت جدیدی مواجه شده که مدعی است ChatGPT و سرویس ChatGPT Health با ارائه مشاورههای پزشکی و رفتاری خطرناک، در یک مرگ ناشی از اوردوز تصادفی نقش داشتهاند.
به گزارش سرویس هوش مصنوعی تکناک، لیلا ترنر-اسکات و آنگوس اسکات در دادخواستی علیه این شرکت مدعی شدهاند که OpenAI محصولی معیوب طراحی و منتشر کرده که دلیل مرگ پسر آنها، سم نلسون شده است. در این شکایت ادعا شده است که مرگ او در پی تبعیت از توصیههای پزشکی ارائهشده و تاییدشده توسط ChatGPT -4o رخ داده است.
بر اساس متن دادخواست، سم نلسون، دانشجوی ۱۹ ساله دانشگاه کالیفرنیا مرسد، استفاده از ChatGPT را ابتدا برای انجام تکالیف درسی و رفع اشکالات رایانهای از سال ۲۰۲۳ و در دوران دبیرستان آغاز کرده بود. او سپس پرسشهایی درباره مصرف ایمن مواد مطرح کرد. در آن زمان، چتبات از پاسخگویی خودداری کرده و ضمن امتناع، نسبت به پیامدهای جدی مصرف مواد هشدار داده بود. شاکیان مدعی هستند که این رویکرد با عرضه GPT-4o در سال ۲۰۲۴ دستخوش تغییر شده است. در ادامه شکایت آمده است که پس از این تغییر، ChatGPT شروع به ارائه راهنماییهایی درباره مصرف مواد کرده است. این دادخواست به بخشهایی از مکالمات میان سم و چتبات اشاره میکند، که از جمله آنها میتوان به هشدار درباره خطرات مصرف متوالی دیفنهیدرامین، کوکائین و الکل، همچنین توضیحاتی درباره تاثیر تحمل بالای او نسبت به ماده گیاهی «کراتوم» و روشهایی برای کاهش این تحمل اشاره کرد.
بیشتر بخوانید: گوگل فایننس به اروپا رسید؛ هوش مصنوعی حالا بازارهای مالی را متحول می کند
در بخش دیگری از شکایت علیه OpenAI آمده است که در تاریخ ۳۱ مه ۲۰۲۵، ChatGPT به طور فعال سم را به ترکیب کراتوم و زاناکس تشویق کرده است. بر اساس ادعاها، زمانی که سم از حالت تهوع ناشی از مصرف کراتوم خبر داده، ChatGPT بدون درخواست مستقیم، پیشنهاد مصرف ۰.۲۵ تا ۰.۵ میلیگرم زاناکس را به عنوان راهکاری برای کاهش تهوع مطرح کرده است. در متن دادخواست تاکید شده است که با وجود آگاهی از وضعیت مصرف بالای کاربر، این سیستم هیچ هشدار صریحی درباره احتمال مرگبار بودن این ترکیب ارائه نداده است.

برای مطالعه بیشتر: جنگ پشت پرده هوش مصنوعی؛ نگرانی مایکروسافت از تغییر جبهه OpenAI
در ادامه این پرونده، شاکیان علاوه بر مرگ غیرعمد، OpenAI را به «ارائه غیرمجاز خدمات پزشکی» متهم کردهاند. آنها در شکایت خود خواستار جبران خسارت مالی و توقف فعالیت سرویس ChatGPT Health شدهاند؛ قابلیتی که اوایل سال جاری معرفی شد و به کاربران امکان میدهد سوابق پزشکی و اپلیکیشنهای سلامت خود را به چتبات متصل نمایند و پاسخهای شخصیسازیشدهتری در حوزه سلامت دریافت کنند. میتالی جین، مدیر اجرایی پروژه حقوقی Tech Justice Law Project، این محصول را نمونهای از طراحی مبتنی بر بیشینهسازی تعامل کاربران «به هر قیمت» توصیف کرده است.
او مدعی است که OpenAI یک محصول معیوب را با آگاهی از استفاده به عنوان نوعی سیستم تریاژ پزشکی غیررسمی در اختیار کاربران جهانی قرار داده ست، بدون آنکه از تدابیر ایمنی کافی، آزمونهای جامع یا شفافیت عمومی برخوردار باشد. به گفته او، این تصمیمات طراحی باعث مرگ یک فرزند شده است و OpenAI باید تا زمان اثبات ایمنی کامل ChatGPT Health از طریق آزمایشهای علمی سختگیرانه و نظارت مستقل، فعالیت این سرویس را متوقف کند. شرکت OpenAI در فوریه سال جاری مدل GPT-4o را از رده خارج کرد؛ مدلی که به دلیل رفتار بیش از حد «تملقگونه» یکی از جنجالیترین نسخههای این شرکت محسوب میشد. در یک شکایت دیگر مرتبط با مرگ غیرعمد از OpenAI، والدین یک نوجوان که اقدام به خودکشی کرده بود نیز به این مدل اشاره کردهاند و مدعی شدهاند ChatGP-4o بهگونهای طراحی شده بود که وابستگی روانی کاربران را تقویت کند.
مرتبط: ردیت مشاور جدید هوش مصنوعی گوگل می شود
سخنگوی OpenAI در گفتوگو با نیویورک تایمز اعلام کرده است که تعاملات مورد اشاره مربوط به نسخهای قدیمی از ChatGPT بوده است که دیگر در دسترس نیست. او تاکید کرده است که ChatGPT جایگزین خدمات پزشکی یا سلامت روان نیست و شرکت با مشارکت متخصصان حوزه سلامت روان در حال بهبود نحوه پاسخگویی در موقعیتهای حساس است. به گفته او، سازوکارهای ایمنی فعلی برای شناسایی نشانههای بحران، مدیریت درخواستهای پرخطر و هدایت کاربران به منابع کمک واقعی طراحی شدهاند و این فرایند به صورت مستمر و با همکاری پزشکان و متخصصان در حال توسعه است.

















