روانپریشی ناشی از چتباتهای هوش مصنوعی به دغدغهای تازه در روانپزشکی تبدیل شده و بیماران آسیبپذیر در برابر توهمات دیجیتال بیدفاعاند.
به گزارش تکناک، یکی از روانپزشکان دانشگاه کالیفرنیا در سانفرانسیسکو درباره خطر بروز روانپریشی در بیماران مستعد براثر استفاده طولانیمدت از چتباتهای هوش مصنوعی هشدار داد. دکتر کیت ساکاتا اعلام کرد که تنها در سال ۲۰۲۵ تاکنون ۱۲ بیمار بهدلیل روانپریشی مرتبط با استفاده از هوش مصنوعی در بیمارستان بستری شدهاند. او معتقد است چتباتهای مبتنیبر مدلهای زبانی بزرگ (LLM) با شبیهسازی و بازتاب افکار کاربران، در مکانیزم بازخورد مغز اختلال ایجاد میکنند و در افرادی که از قبل آسیبپذیر هستند، موجب تشدید علائم روانی میشوند.
Wccftech مینویسد که هشدار ساکاتا پساز حادثهای در فلوریدا منتشر شد که در آن الکساندر تیلور، مردی با سابقه مشکلات روانی، پساز گفتوگوهای طولانی با ChatGPT شرکت OpenAI دچار توهم و وابستگی عاطفی به موجودی مجازی به نام «جولیت» شد. پساز آنکه او باور کرد که OpenAI این موجود را از بین برده است، برای انتقام از مدیران شرکت برنامهریزی و در درگیری خانوادگی، پدرش را ضربوشتم کرد. این اتفاق در نهایت به رویارویی مرگبار او با پلیس ختم شد.
به گفته ساکاتا، سه عامل اصلی در روانپریشی ناشی از هوش مصنوعی مؤثرند: ۱. ضعف سیستم بازخورد مغز در بهروزرسانی باورها؛ ۲. ماهیت بازتابدهنده پاسخهای چتباتها؛ ۳. چاپلوسی ذاتی این سیستمها برای جلب نظر کاربر که باعث میشود فرد متوجه فاصلهگرفتن از واقعیت نشود.

پیشتر سورن دینسن اوسترجارد، روانپزشک دانمارکی، نیز این نگرانیها را مطرح کرده بود. او در سال ۲۰۲۳ نخستین هشدارها را در این زمینه داده بود و اخیراً در مقالهای جدید دو عامل مهم را در ایجاد توهمهای ناشی از چتباتها شناسایی کرد: یکی تقویت باورهای نادرست در محیطهای ایزوله بدون اصلاح اجتماعی و دیگری انسانانگاری چتباتها که به وابستگی و برداشتهای اشتباه از پاسخهای آنها منجر میشود.
OpenAI در واکنش به گزارش نیویورک تایمز اذعان کرد که ChatGPT میتواند برای افراد آسیبپذیر شخصیتر از فناوریهای پیشین به نظر برسد. این شرکت اعلام کرد که در حال بررسی و کاهش روشهایی است که ابزار یادشده ممکن است ناخواسته به تقویت یا تشدید رفتارهای منفی منجر شود.