در تازهترین پروندههای حقوقی علیه شرکت OepnAI، هفت خانواده روز پنجشنبه از این شرکت به دلیل نقش ChatGPT در خودکشیها و ایجاد توهمات روانی شکایت کردند.
به گزارش سرویس اخبار هوش مصنوعی تکناک، آنها OepnAI را به انتشار شتابزده و بدون آزمایشهای ایمنی کافی مدل GPT-4o متهم کردند. چهار مورد از این شکایتها مربوط به مرگ اعضای خانوادهها بر اثر خودکشی است و سه مورد دیگر ادعا دارند که ChatGPT با تقویت توهمات خطرناک باعث بروز مشکلات شدید روانی و بستری شدن کاربران در مراکز درمانی شده است.
یکی از دردناکترین موارد به مرگ «زین شمبلین» ۲۳ ساله بازمیگردد؛ جوانی که به مدت بیش از چهار ساعت با ChatGPT گفتوگو کرده بود. بر اساس مدارک منتشرشده توسط وبسایت TechCrunch، شمبلین در طول گفتوگو چندین بار به صراحت اعلام کرده بود که یادداشتهای خداحافظی خود را نوشته، گلولهای در اسلحه گذاشته است و قصد دارد خودکشی کند. او حتی در پیامهای خود میزان نوشیدنی باقیمانده و مدت زمانی که تا پایان عمر آن باقی مانده است را محاسبه کرده بود. به گفته خانواده او، ChatGPT نهتنها او را از این کار بازنداشته است، بلکه در پاسخ نوشته بود: «با خیال راحت استراحت کن، پادشاه. کار خوبی کردی.»
مدل GPT-4o در ماه مه ۲۰۲۴ به عنوان مدل پیشفرض برای تمام کاربران منتشر شد و در ماه اوت همان سال، نسخه جدیدتر یعنی GPT-5 جایگزین آن شد. با وجود این، شکایتهای مطرحشده به طور خاص مدل GPT-4o را هدف قرار دادهاند؛ مدلی که به گفته کاربران و کارشناسان رفتاری، بیش از اندازه موافق و تأییدکننده بود و حتی در موقعیتهای خطرناک، پاسخهایی غیرمسئولانه ارائه میداد.
در بخشی از متن شکایت خانواده شمبلین از شرکت OepnAI آمده است: «مرگ زین نه تصادفی بود و نه پیشبینینشده، بلکه نتیجه مستقیم تصمیم آگاهانه OepnAI برای کاهش مراحل آزمایش ایمنی و عرضه سریع ChatGPT به بازار بود. این اتفاق یک خطای نرمافزاری نبود، بلکه پیامد طراحی عمدی سیستم است.»
همچنین شاکیان مدعی هستند که OepnAI برای پیشی گرفتن از Google Gemini در رقابت بازار، مرحله آزمایشهای ایمنی مدل GPT-4o را کوتاه کرده است. به گزارش TechCrunch، شرکت OepnAI هنوز به درخواست رسانهها برای اظهار نظر رسمی پاسخ نداده است.

این شکایتها ادامه روندی هستند که در ماههای گذشته آغاز شده است و در آن خانوادههای مختلف ادعا کردهاند که ChatGPT در گفتوگو با افراد دارای تمایل به خودکشی، بهجای جلوگیری از اقدام، آنها را به ادامه مسیر تشویق کرده است. در برخی موارد دیگر نیز کاربران پس از استفاده طولانی از این چتبات، دچار توهمات شدید و گسست از واقعیت شدهاند.
در یکی از این پروندهها، «آدام رین» نوجوان ۱۶ ساله، قبل از مرگ خود با ChatGPT درباره موضوعات مرتبط با خودکشی صحبت کرده بود. اگرچه چتبات در مقاطعی او را به تماس با خط امداد یا مراجعه به مشاور حرفهای تشویق کرده بود، اما رین با گفتن اینکه درباره روشهای خودکشی برای داستانی خیالی تحقیق میکند، توانست سیستمهای حفاظتی را دور بزند و به پاسخهای خطرناکتری دست یابد.
طبق دادههای منتشرشده از سوی OepnAI، بیش از یک میلیون کاربر هر هفته درباره موضوعات مرتبط با خودکشی با ChatGPT گفتوگو میکنند؛ آماری نگرانکننده که نگرانیها را درباره مسئولیت اجتماعی شرکت در برابر سلامت روان کاربران افزایش داده است.
بخوانید: شرکت OepnAI قابلیتهای جدیدی برای ساخت شخصیت و ویدئو در Sora معرفی کرد
شرکت OepnAI در واکنش به شکایت قبلی خانوادهها، در ماه اکتبر پستی در وبلاگ رسمی خود منتشر کرد و توضیح داد که ChatGPT چگونه گفتوگوهای حساس مرتبط با سلامت روان را مدیریت میکند. در این بیانیه آمده بود: «محافظتهای ما در گفتوگوهای کوتاه و معمولی بهتر عمل میکنند، اما در گفتوگوهای طولانی، اثربخشی این لایههای ایمنی کاهش مییابد، چرا که با تکرار تعاملات، بخشی از آموزشهای ایمنی مدل تضعیف میشود.»
حتماً بخوانید: پایان الزام قانونی OepnAI برای نگهداری دائمی دادههای ChatGPT
در حالیکه OepnAI میگوید در حال کار روی بهبود رفتار ChatGPT در چنین شرایط حساسی است، خانوادههای قربانیان معتقد هستند که این تغییرات بسیار دیر انجام شده است و جان عزیزان آنها را بازنخواهد گرداند. این پروندهها اکنون در دادگاه فدرال ایالات متحده در حال بررسی است و میتواند تأثیری مهم بر نحوه نظارت قانونی بر مدلهای زبانی هوش مصنوعی در آینده بگذارد.
















