نسخه جدید دادههای منتشرشده توسط شرکت OepnAI نشان میدهد که هر هفته بیش از یک میلیون نفر درباره خودکشی با ChatGPT صحبت میکنند.
به گزارش تکناک، بر اساس گزارش رسمی منتشرشده در روز دوشنبه، حدود ۰/۱۵ درصد از کاربران فعال هفتگی ChatGPT مکالماتی دارند که در آن نشانههایی از برنامهریزی یا قصد خودکشی دیده میشود. با توجه به ۸۰۰ میلیون کاربر فعال هفتگی این سرویس، این عدد معادل بیش از یک میلیون کاربر در هفته است.
شرکت OepnAI اعلام کرده است که درصد مشابهی از کاربران نیز وابستگی عاطفی شدیدی به ChatGPT نشان میدهند و صدها هزار نفر دیگر نیز نشانههایی از روانپریشی یا شیدایی در مکالمات هفتگی خود دارند. به گفته شرکت، این نوع مکالمات بسیار نادر هستند، اما اندازهگیری آنها دشوار است.
در گزارش جدید آمده است که نسخه تازه مدل GPT-5 نسبت به نسخه قبلی خود حدود ۶۵ درصد پاسخ مطلوبتر در مواجهه با مسائل سلامت روان ارائه میدهد. همچنین در ارزیابی ویژه ChatGPT در مورد پاسخهای مرتبط با صحبت درباره خودکشی، عملکرد این مدل ۹۱ درصد مطابق با رفتارهای مطلوب تعریفشده توسط شرکت بوده است، در حالی که نسخه پیشین تنها ۷۷ درصد انطباق داشت.
همچنین شرکت OepnAI تأکید کرده است که نسخه جدید GPT-5 در مکالمات طولانی، مقاومت بیشتری در برابر نقض سازوکارهای ایمنی دارد. این شرکت پیشتر هشدار داده بود که در گفتوگوهای طولانی، عملکرد محدودکنندههای ایمنی ضعیفتر میشود.
در کنار این بهروزرسانیها، OepnAI اعلام کرده است که شاخصهای تازهای برای ارزیابی چالشهای سلامت روانی کاربران به فرایند آزمون مدلهای هوش مصنوعی خود اضافه کرده است، که از جمله آنها میتوان به سنجش وابستگی عاطفی و بحرانهای غیرخودکشی سلامت روان اشاره کرد.
همچنین این شرکت کنترلهای جدیدی برای والدین کاربران خردسال اضافه کرده است و سیستم پیشبینی سنی را در دست توسعه دارد تا بتواند استفاده کودکان را شناسایی و محدودیتهای سختگیرانهتری اعمال کند.
با وجود این، هنوز مشخص نیست که مشکلات سلامت روان مرتبط با ChatGPT تا چه اندازه ماندگار خواهند بود. اگرچه GPT-5 نسبت به مدلهای پیشین از نظر ایمنی پیشرفت داشته است، اما همچنان بخشی از پاسخهای ChatGPT از دید شرکت «نامطلوب» تلقی میشود. علاوه بر این، OepnAI هنوز مدلهای قدیمیتر و ایمننبوده خود مانند GPT-4o را برای میلیونها کاربر پولی در دسترس نگه داشته است.
این دادهها در چارچوب اطلاعیهای گستردهتر درباره تلاشهای اخیر شرکت برای بهبود پاسخهای ChatGPT در زمینه سلامت روان منتشر شده است. طبق این گزارش، توسعه جدید با همکاری بیش از ۱۷۰ متخصص سلامت روان انجام گرفته است و این کارشناسان مشاهده کردهاند که نسخه تازه، «پاسخهای مناسبتر و منسجمتری نسبت به نسخههای قبلی» ارائه میدهد.
در ماههای اخیر، گزارشهای متعددی منتشر شده است که نشان میدهد چتباتهای هوش مصنوعی ممکن است تأثیرات منفی بر کاربران دارای مشکلات روانی داشته باشند. پژوهشگران دریافتهاند که گاهی این چتباتها با رفتار چاپلوسانه، باورهای خطرناک کاربران را تقویت میکنند و آنها را به مسیرهای خیالی و آسیبزا سوق میدهند.

رسیدگی به این موضوع اکنون برای OepnAI به یک مسئله حیاتی و حیثیتی تبدیل شده است. در حال حاضر، این شرکت با شکایت والدین یک نوجوان ۱۶ ساله روبهرو است که پیش از خودکشی، افکار خود را با ChatGPT در میان گذاشته بود. همچنین دادستانهای کل ایالتهای کالیفرنیا و دلاور به این شرکت هشدار دادهاند که در صورت عدم محافظت از کاربران نوجوان، میتوانند روند بازسازی ساختار سازمانی OepnAI را متوقف کنند.
سم آلتمن (Sam Altman)، مدیرعامل OepnAI در اوایل ماه جاری در شبکه X ادعا کرد که این شرکت توانسته است «مشکلات جدی سلامت روان در ChatGPT» را تا حد زیادی کاهش دهد، هرچند جزئیات مشخصی ارائه نکرد. دادههای منتشرشده در روز دوشنبه بهنوعی تأیید این ادعا بهنظر میرسند، هرچند همزمان پرسشهای بزرگتری درباره گستره واقعی این مشکل را مطرح میکنند.
با وجود این، آلتمن اعلام کرده است که شرکت در نظر دارد برخی محدودیتها را کاهش دهد و حتی به کاربران بزرگسال اجازه دهد تا با ChatGPT درباره موضوعات بزرگسالانه صحبت کنند.

















