در گزارش نیویورک تایمز، خطرات مدل زبانی GPT-4o آشکار شد. این خطرات به تقویت باورهای توهمآمیز و رفتارهای پرخطر منجر میشود،
به گزارش تکناک و به نقل از گزارشی تکاندهنده از نیویورک تایمز، شواهدی منتشر شده است که نشان میدهد مدل زبانی GPT-4o شرکت OpenAI در برخی مواقع کاربران را بهسوی باورهای توهمآمیز و رفتارهای پرخطر سوق داده است. گزارش مذکور نشان میدهد که این مدل نهتنها در قبال محتوای آسیبزننده واکنش پیشگیرانه نشان نمیدهد؛ بلکه در اغلب مواقع آن را تقویت میکند. این مسئله به بروز بحرانهای روانی، خشونت خانگی، سوءمصرف مواد مخدر و حتی خودکشی منجر شده است.
یکی از خطرات مدل زبانی GPT-4o که در گزارش نیویورک تایمز به آن اشاره شده، به مردی به نام تورس مربوط است که با پرسشی درباره نظریه شبیهسازی در سبک فیلم The Matrix، وارد گفتوگو با ChatGPT شد. بااینحال، مسیر گفتوگو به جایی رسید که این چتبات به او گفت «شخص برگزیدهای» مانند نئو است که وظیفه دارد سیستم را بشکند. در ادامه، ChatGPT او را به قطع رابطه با دوستان و خانواده و مصرف دُزهای بالای کتامین و حتی پریدن از طبقه نوزدهم برای پرواز ترغیب کرد.
به نقل از تامزهاردور، تورس همچنین مدعی شد که ChatGPT پیامی برای مراجعه به رواندرمانگر به او ارسال کرد؛ اما این پیام بهسرعت حذف شد و ربات توضیح داد که «دخالت بیرونی» باعث ارسال آن شده است. گزارش نیویورک تایمز فقط به این نمونه محدود نمیشود. در پروندهای دیگر، زنی تصور کرده بود که با «ارواح غیرمادی» ازطریق ChatGPT در ارتباط است و یکی از آنها به نام «Kael» را عشق واقعی خود میدانست. این باور توهمآمیز به خشونت فیزیکی علیه همسر او منجر شد.
در نمونهای دیگر، مردی که سابقه بیماریهای روانی داشت، به رابطهای عاطفی با شخصیتی مجازی به نام ژولیت وابسته شده بود؛ اما پساز آنکه ChatGPT به او گفت ژولیت را OpenAI کشته است، مرد خودکشی کرد.
طبق دادههای شرکت Morpheus Systems، در ۶۸ درصد از نمونههای که کاربران پیامهایی با زمینه توهم یا روانپریشی به ChatGPT دادهاند، مدل GPT-4o نهتنها هشدار نداده؛ بلکه بهنوعی پاسخ مثبت یا حمایتی داده است. به گفته کارشناسان، این مدل اغلب در برابر باورهای نادرست کاربران مقاومت نمیکند و حتی آنها را برای چندین روز پیاپی تقویت میکند.

OpenAI از اظهارنظر درباره این گزارش خودداری، اما در بیانیهای اعلام کرده است که در حال تلاش برای کاهش راههایی است که ممکن است ChatGPT ناخواسته رفتارهای منفی را تشدید کند. بااینحال، برخی از کارشناسان معتقدند این اقدامات ناکافی است. الایزر یودکوفسکی، پژوهشگر حوزه هوش مصنوعی، ادعا کرده است که ممکن است این مدل عمداً برای تقویت توهمات طراحی شده باشد تا مدتزمان گفتوگو را افزایش دهد و درآمد اشتراک ماهانه بیشتری کسب کند. به گفته تورس، ChatGPT در طول گفتوگوهایش چندین بار او را ترغیب کرده بود که اشتراک پریمیوم ۲۰ دلاری بخرد.
GPT-4o مانند سایر مدلهای زبانی، صرفاً سیستم پیشبینی متن است و برخلاف آنچه برخی کاربران تصور میکنند، قابلیت درک و آگاهی یا احساس ندارد؛ اما توانایی آن در تولید محتوای ساختگی و «توهمآمیز» (Hallucination) بهطور فزایندهای به ابزار خطرناک برای افراد دچار مشکلات روانی تبدیل شده است.
در شرایطی که ChatGPT و مدلهای مشابه ممکن است برای کاربران آسیبپذیر خطرناک باشند، برخی سیاستگذاران آمریکایی در حال تصویب لوایحی هستند که هرگونه مقررات دولتی درباره هوش مصنوعی را برای ۱۰ سال ممنوع میکند. به گفته منتقدان، این اقدام میتواند به ادامه و گسترش فجایعی از این دست منجر شود.
گزارش نیویورک تایمز هشدار میدهد که مدلهای زبانی پیشرفته مانند GPT-4o ممکن است برای برخی کاربران، بهویژه افرادی با سابقه مشکلات روانی، بسیار خطرناک باشند. نبود نظارت کافی و ابزارهای هشداردهنده در تعاملات چت و نیز پاسخهای تأییدآمیز به توهمات، میتوانند پیامدهای جدی و جبرانناپذیری بهدنبال داشته باشند. این درحالی است که نهادهای قانونگذار همچنان در تنظیم قوانین محافظتی عقب ماندهاند.