افزایش پروندههای روانپریشی ناشی از هوش مصنوعی زنگِخطری برای خانوادههاست و متخصصان توصیه میکنند که روابط انسانی در چرخه تعامل حفظ شود.
به گزارش تکناک، روانپریشی ناشی از هوش مصنوعی به یکی از موضوعهای جدی در حوزه سلامت روان تبدیل شده است. کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا در سانفرانسیسکو، با هشدار درباره افزایش موارد این اختلال، راهکارهایی را برای جلوگیری از آن ارائه داده است.
به گفته دکتر ساکاتا، در هفته گذشته دستکم دوازده نفر بیمار پساز تجربه روانپریشی مرتبط با استفاده از هوش مصنوعی در بیمارستان بستری شدهاند. او تأکید کرد که هرچند هوش مصنوعی بهطور مستقیم عامل ایجاد اختلال نیست، نقش مهمی در ایجاد چرخه بازخورد شناختی تحریفشده برعهده دارد؛ چرخهای که زمینهساز روانپریشی میشود.
پدیده گفتهشده با نام «روانپریشی ناشی از هوش مصنوعی» شناخته میشود و هنوز اصطلاح رسمی پزشکی نیست؛ اما به گفته متخصصان، وضعیتی است که در آن کاربر چتبات فراموش میکند با نرمافزار گفتوگو میکند و نه با انسان واقعی. در سال ۲۰۲۵، این وضعیت حتی به وقوع رخدادهای دردناک منجر شد؛ ازجمله مرگ مردی در فلوریدا که پساز باور بهکشته شدن معشوقه هوش مصنوعی خود بهوسیله کارکنان OpenAI دست به خودکشی زد.
به نقل از Wccftech، دکتر ساکاتا در توضیحات خود تاکید کرد:
استفاده از هوش مصنوعی باعث میشود تا کاربران آسیبپذیر نتوانند پساز مواجهه با واقعیت، نظام باورهای خود را اصلاح کنند. در نتیجه، الگویی خودتقویتشونده شکل میگیرد که در آن فرد نمیتواند این موضوع را درک کند که چتبات با هویت انسانی واقعی وجود خارجی ندارد.

او در گفتوگویی با شبکه TBPN پیشنهاد کرد توسعهدهندگان هوش مصنوعی باید با طراحی سازوکارهای جدید مانع چنین پیامدهایی شوند. همچنین، او به خانوادهها و افراد آسیبپذیر توصیههایی کرد:
فعلاً مهمترین اقدام داشتن انسان در چرخه است. روابط انسانی مانند سیستم ایمنی روان عمل میکنند؛ یعنی هم باعث بهبود حال افراد میشوند و هم در شرایط بحرانی امکان مداخله دارند. اگر احساس میکنید شما یا یکی از نزدیکانتان در معرض خطر هستید، باید فوراً کمک بگیرید و با شمارههای اضطراری تماس بگیرید. همچنین، قراردادن فرد واقعی میان کاربر و هوش مصنوعی میتواند چرخه بازخورد متفاوتی ایجاد و از تشدید وضعیت جلوگیری کند.
افزونبر نگرانیهای روانپزشکان، گسترش استفاده از هوش مصنوعی مسائل امنیتی تازهای را بههمراه داشته است. گزارشهای مختلف حاکی از آن است که شرکت متا، مالک فیسبوک، در برخورد با چتباتها و ارتباط آنها با کودکان رویکردی سهلگیرانه در پیش گرفته است. در گزارش خبرگزاری رویترز آمده است دستورالعملهای متا برای پاسخگویی چتباتها به کودکان ناکافی بوده است. این شرکت پساز مطرحشدن پرسشها، اعلام کرده که قوانین خود را بهروزرسانی کرده است.
به نظر میرسد با رشد سریع استفاده از هوش مصنوعی، ضرورت تدوین مقررات و مداخلات جدیتر برای پیشگیری از پیامدهای روانی و اجتماعی آن بیشازپیش احساس میشود.