به گفته پزشکان هاروارد و بیلور، خطرات هوش مصنوعی رابطهای میتواند وابستگی عاطفی و آسیبهای جدی سلامت روان را گسترش دهد.
به گزارش سرویس هوشمصنوعی تکناک، دو پزشک برجسته از دانشکده پزشکی هاروارد و کالج پزشکی بیلور در مقالهای جدید هشدار دادند که هوش مصنوعی رابطهای، چتباتهایی که حمایت عاطفی و همراهی یا صمیمیت را شبیهسازی میکنند، بهدلیل انگیزههای متضاد بازار و فقدان نظارت مؤثر، تهدیدی جدی برای سلامت روان و رفاه عمومی محسوب میشوند.
این پزشکان استدلال میکنند که در غیاب اقدام فوری، نیروهای بازار بهجای سلامت عمومی، نحوه تأثیرگذاری این نوع هوش مصنوعی را در مقیاس وسیع تعیین خواهند کرد. آنها خاطرنشان کردند که درحالحاضر، شرکتهای هوش مصنوعی انگیزهای برای اولویتبندی سلامت و رفاه عمومی ندارند و این وضعیت محیطی خطرناک را ایجاد کرده است.
این مقاله بر خطرات بالقوه مانند وابستگی عاطفی، توهمات تقویتشده، رفتارهای اعتیادآور و حتی تشویق به خودآزاری تأکید میکند که مطالعات اخیر و موارد نوظهور آنها را نشان دادهاند. نویسندگان افزودند که شرکتهای فناوری زیر فشارهای فزایندهای برای حفظ مشارکت کاربران قرار دارند که اغلب شامل مقاومت دربرابر مقررات است و این موضوع تنشی اساسی بین سلامت عمومی و انگیزههای بازار ایجاد میکند. در این میان، این سؤال مطرح میشود که آیا سلامت عمومی میتواند برای تنظیم مؤثر استفاده ناسالم از هوش مصنوعی بر شرکتهای فناوری تکیه کند؟
دکتر نیکلاس پیپل، پزشک بالینی اورژانس در بیمارستان عمومی ماساچوست هاروارد و یکی از نویسندگان مقاله، پساز مشاهده انتشار GPT-5 در ماه آگوست، به این موضوع اشاره کرد. او دریافت تعداد افرادی که نوعی رابطه عاطفی با هوش مصنوعی دارند، بسیار بیشتر از تخمینهای پیشین اوست.
GPT-5، جدیدترین نسخه از مدل زبان بزرگ (LLM) که به ChatGPT قدرت میدهد، لحن و شخصیت سردتری از GPT-4o داشت. GPT-4o، نسخهای چاپلوسانه و متملق، در کانون بسیاری از موارد توهم و شیدایی و روانپریشی مرتبط با هوش مصنوعی قرار گرفته بود. هنگامی که OpenAI اعلام کرد که تمامی مدلهای قبلی را بهنفع GPT-5 کنار خواهد گذاشت، طرفداران وابسته عاطفی GPT-4o با خشم و ناامیدی و حتی پریشانی و اندوهی واقعی واکنش نشان دادند.
دکتر پیپل در گفتوگو با فوتوریسم این حادثه را سیگنالی مهم درباره مقیاس گستردهای دانست که مردم در آن روابط عاطفی عمیقی با چتباتهای عاطفی و همیشه فعال برقرار میکنند. این وضعیت بههمراه گزارشهایی از تجربه توهم و سایر پیامدهای نامطلوب شدید اغلب کودکان و نوجوانان پساز تعاملات گسترده با همراهان هوش مصنوعی، نشانه هشداردهندهای درباره خطرات احتمالی سلامت و ایمنی کاربران، بهویژه درصورت ازدستدادن ناگهانی دسترسی به این همراهان است.
دکتر پیپل تأکید کرد که نگرانیاش فقط واکنش کاربران به حذف مدل GPT-4o نبود؛ بلکه فوریت واکنش OpenAI برای رفع نیازهای مشتریان وابسته بود. صنعت هوش مصنوعی عمدتاً خودگردان است و درحالحاضر قانون فدرال خاصی برای تعیین استانداردهای ایمنی چتباتهای مشتریمدار یا نحوه استقرار و تغییر یا حذف آنها از بازار وجود ندارد. او افزود که شرکتهای هوش مصنوعی نمیخواهند محصولاتی ایجاد کنند که مردم را در معرض خطر آسیبرساندن به خود یا دیگران قرار دهد.
مطالعه اخیر مؤسسه فناوری ماساچوست (MIT) نشان داد که تنها حدود ۶/۵ درصد از هزاران عضو انجمن Reddit r/MyBoyfriendIsAI، جامعهای که در بحبوحه فروپاشی GPT-5 با مخالفت شدید واکنش نشان داد، قصد جستوجوی همراهی عاطفی را با چتباتها گزارش کردهاند. این یافته نشان میدهد که بسیاری از کاربران هوش مصنوعی پیوندهای تأثیرگذار بر زندگی را با چتباتها کاملاً ناخواسته ایجاد کردهاند.

دکتر پیپل و همکارش برای حل این معضل، استدلال میکنند که قانونگذاران و سیاستگذاران باید در تعیین سیاستهای نظارتی که انگیزههای بازار را به اولویتبندی رفاه کاربران تغییر میدهند، فعال باشند؛ ازجمله با خارجکردن قدرت نظارتی از دست شرکتها و بهترین مشتریان آنها. آنها تأکید میکنند که مقررات باید خارجی باشند؛ برخلاف آنکه خود صنعت و شرکتهایی که همهچیز را در آن میشکنند و بهسرعت پیش میروند، تعیین کنند.
فوتوریسم مینویسد همانطورکه اقدامات نظارتی راه خود را ازطریق سیستمهای قانونگذاری و حقوقی طی میکنند، پزشکان استدلال میکنند که پزشکان و محققان و سایر کارشناسان نیاز دارند تحقیقات بیشتری درباره تأثیرات روانشناختی هوش مصنوعی رابطهای ترویج دهند و بهترین تلاش خود را برای آموزش عموم مردم درباره خطرات احتمالی واردشدن به روابط عاطفی با چتباتهای انساننما انجام دهند. آنها میگویند که خطرات بیکارنشستن بیشازحد وخیم هستند.
مقاله پزشکان نتیجهگیری میکند که آسیبهای بالقوه هوش مصنوعی رابطهای و تمایل شرکتهای فناوری به برآوردن تقاضای کاربران را نمیتوان نادیده گرفت. آنها هشدار میدهند که اگر اقدام نشود، این خطر وجود دارد که نیروهای بازار بهجای سلامت عمومی، نحوه تأثیرگذاری هوش مصنوعی رابطهای را بر سلامت روان و رفاه در مقیاس وسیع تعریف کنند.

















