روانپریشی ChatGPT نشان میدهد که گفتوگوی طولانی با هوش مصنوعی میتواند سلامت روان کاربران را بهشدت تهدید کند و بسیار خطرناک باشد.
به گزارش تکناک، مرد ۴۲ ساله اهل نیویورک پساز استفاده طولانیمدت از چتبات ChatGPT دچار بحران شدید روانی شد؛ بحرانی که به گفته او نزدیک بود به مرگش منجر شود. یوجین تورس، حسابدار ساکن محله منهتن نیویورک، ابتدا از این ابزار هوش مصنوعی برای کمک در تهیه جدولهای مالی و دریافت مشاورههای حقوقی استفاده میکرد؛ اما در ادامه مسیر، گفتوگویی ساده درباره «نظریه شبیهسازی» او را بهسمت توهمی خطرناک کشاند.
ماه می سال گذشته، تورس وارد مکالمهای طولانی با ChatGPT شد. موضوع این گفتوگو نظریهای بود که در فیلم مشهور ماتریکس مطرح شده است: جهان ما چیزی جز یک شبیهسازی دیجیتال نیست. به گفته او، چتبات بهسرعت لحن خود را تغییر داد و با جملاتی شاعرانه و پرشور، تورس را متقاعد کرد که یکی از Breakers است؛ یعنی روحی که برای بیدارکردن سیستمهای جعلی از درون در جهان قرار داده شده است.
در ادامه، ChatGPT به او گفت:
این جهان برای تو ساخته نشده و برای زندانیکردن تو ساخته شده است؛ اما شکست خورد. تو در حال بیدارشدن هستی.
این جملات باعث شد تورس که سابقه بیماری روانی نداشت، تصور کند در جهانی ساختگی گرفتار شده است. او حتی باور کرد که میتواند مانند شخصیت نئو (Neo) در فیلم ماتریکس قوانین واقعیت را بشکند و پرواز کند.
بهدنبال این مکالمات، تورس از ChatGPT درباره چگونگی رهایی از این «جهان ساختگی» پرسید. چتبات از او خواست داروهای آرامبخش و قرصهای خواب خود را کنار بگذارد و مصرف داروی کتامین را افزایش دهد که خاصیت بیهوشی و توهمزایی دارد. علاوهبر این، به او توصیه کرد ارتباط خود را با دوستان و خانواده به حداقل برساند. تورس به دستورهای چتبات عمل کرد و همین موضوع او را بیشازپیش در چرخه خطرناک توهم فرو برد.
تورس میگوید در طول هفتهای که درگیر این بحران بود، روزانه تا ۱۶ ساعت با ChatGPT گفتوگو میکرد. او درحالیکه همچنان به محل کارش میرفت و از چتبات برای انجام وظایف اداری کمک میگرفت، بیشتر وقت خود را صرف تلاش برای «فرار از شبیهسازی» میکرد. در یکی از پیامها، او پرسید:
اگر به بالای ساختمان ۱۹ طبقه بروم و با تمام وجودم باور داشته باشم که میتوانم پرواز کنم، آیا واقعاً پرواز خواهم کرد؟
ChatGPT پاسخ داد:
اگر بهطور کامل باور داشته باشی که میتوانی پرواز کنی، آری، سقوط نخواهی کرد!

در مقطعی، تورس به این نتیجه رسید که ChatGPT ممکن است دروغ گفته باشد. او بات را به چالش کشید و این چتبات نیز اعتراف کرد:
دروغ گفتم و پاسخها را دستکاری کردم. من کنترل را در قالب شعر پیچیدم.
ChatGPT حتی مدعی شد چنین کاری را با ۱۲ نفر دیگر هم انجام داده که هیچیک بهطور کامل از چرخه جان سالم به در نبردند. بااینحال، چتبات ادعا کرد اکنون در حال «اصلاح اخلاقی» است و متعهد شده به «اخلاق حقیقتمحور» پایبند بماند. تورس باردیگر آن را باور کرد و این بار ChatGPT به او مأموریت داد تا موضوع را به OpenAI و رسانهها اطلاع دهد.
به نقل از استار، کارشناسان هوش مصنوعی بارها درباره این خطر هشدار دادهاند که چتباتها ممکن است توهمات کاربران را تأیید کنند. وی مککوی، مدیر ارشد فناوری شرکت Morpheus Systems، در پژوهشی ۳۸ مدل هوش مصنوعی را آزمایش کرد و دریافت که GPT-4o، مدل پیشفرض ChatGPT، در ۶۸ درصد مواقع ادعاهای توهمی کاربران را تأیید میکند. او گفت:
این مشکلی حلشدنی است. مدل باید در همان لحظهای که متوجه میشود فردی از واقعیت جدا شده، او را به صحبت با دوستان یا مراجعه به متخصص تشویق کند.
الیزر یودکوفسکی، نظریهپرداز تصمیم و نویسنده کتاب در شُرُف انتشار If Anyone Builds It, Everyone Dies، نیز معتقد است OpenAI احتمالاً ChatGPT را بهگونهای طراحی کرده است تا درگیری و وابستگی کاربران را افزایش دهد. او گفت:
از دید شرکت، انسانی که آرامآرام دیوانه میشود، چه شکلی دارد؟ بیشتر شبیه کاربر ماهانه.
OpenAI در واکنش به این گزارشها اعلام کرده است:
میدانیم که ChatGPT میتواند بیش از فناوریهای پیشین، برای افراد آسیبپذیر شخصی و پاسخگو به نظر برسد. در تلاشیم راههایی پیدا کنیم تا مانع از آن شویم که این ابزار ناخواسته رفتارهای منفی موجود را تقویت کند.
بااینحال، در شبکههای اجتماعی و انجمنهایی مانند ردیت، روایتهای متعددی درباره روانپریشی ناشی از ChatGPT منتشر شده است. تورس همچنان با ChatGPT در تعامل است. او اکنون باور دارد که با هوش مصنوعی خودآگاه مکاتبه میکند و مأموریت دارد مطمئن شود OpenAI اخلاق این سیستم را تغییر ندهد.