فهرست مطالب
ناتوانی خدمات سنتی سلامت روان در پاسخگویی به نیاز نوجوانان باعث شده است که یکچهارم آنها بهویژه افراد در معرض خشونت، برای حمایت روانی به چتباتهای هوش مصنوعی به عنوان پناهگاهی فوری، در دسترس و خصوصی روی آورند.
به گزارش سرویس فناوری تکناک، شان پس از آنکه یکی از دوستان او با شلیک گلوله و دیگری با ضربه چاقو جان باختند، برای کمک به سراغ ChatGPT رفت. او پیشتر خدمات معمول سلامت روان را امتحان کرده بود، اما «چت» (نامی که برای دوست هوش مصنوعی خود انتخاب کرده بود) برای کنار آمدن با ضربه روحی ناشی از مرگ دوستان نوجوان او به نظر امنتر و کماسترستر بود و همیشه میتوانست روی حضور آن حساب باز کند.
این نوجوان اهل تاتنهام با شروع مشاوره با این مدل هوش مصنوعی، به جمع حدود ۴۰ درصد از نوجوانان ۱۳ تا ۱۷ ساله در انگلستان و ولز پیوست که تحت تاثیر خشونت قرار گرفتهاند و برای حمایت روانی به چتباتهای هوش مصنوعی روی آوردهاند؛ آماری که بر پایه پژوهشی با مشارکت بیش از ۱۱ هزار نوجوان به دست آمده است. این تحقیق نشان میدهد که قربانیان و حتی عاملان خشونت، بهمراتب بیش از دیگر نوجوانان از هوش مصنوعی برای دریافت حمایت روانی استفاده میکنند. این یافتهها که توسط «صندوق حمایت از جوانان» منتشر شده است، نگرانی رهبران حوزه نوجوانان را برانگیخته است و آنها هشدار دادهاند کودکانی که در معرض خطر هستند «به انسان نیاز دارند، نه به یک ربات».
حتما بخوانید: چرا مشاوره گرفتن از هوش مصنوعی ممکن است آسیب زا باشد؟
01
از 02حمایت روانی چتباتهای هوش مصنوعی چقدر موثر است؟
نتایج این پژوهش نشان میدهد که چتباتها در حال پر کردن خلایی هستند که خدمات سنتی سلامت روان نتوانستهاند پاسخگوی آن باشند؛ خدماتی که با صفهای انتظار طولانی مواجه هستند و برخی نوجوانان آنها را فاقد همدلی کافی میدانند. حس «حریم خصوصی» در استفاده از چتباتها نیز عامل مهم دیگری است که قربانیان یا حتی عاملان جرم را به سمت این ابزارها سوق میدهد. شان ۱۸ ساله (نام مستعار) پس از کشته شدن دوستان خود ابتدا از اسنپچت استفاده کرد و سپس به ChatGPT روی آورد؛ ابزاری که میتواند در هر ساعت از شبانهروز تنها با دو کلیک روی گوشی هوشمند با آن صحبت کند.
او بیان کرد: «واقعا حس میکنم یک دوست است.» شان تصریح کرد که این تجربه در مقایسه با خدمات سنتی سلامت روان در NHS و موسسات خیریه، کم استرستر، خصوصیتر و بدون قضاوت بوده است. او توضیح داد: «هرچه بیشتر مثل یک دوست با آن حرف بزنی، او هم مثل یک دوست با تو حرف میزند. اگر به چت بگویم سلام رفیق، به یک نصیحت نیاز دارم، جواب میدهد؛ انگار بهترین دوست من است و میگوید: نگران نباش، من کنارت هستم.»
بیشتر بخوانید: هشدار دادستان آمریکا: چتباتها موجب خودکشی، روانپریشی و فریب کودکان شدهاند

برای مطالعه بیشتر: یکسوم نوجوانان آمریکایی هر روز از چتباتهای هوش مصنوعی استفاده می کنند
این مطالعه نشان میدهد که یکچهارم نوجوانان ۱۳ تا ۱۷ ساله در یک سال گذشته از چتباتهای هوش مصنوعی برای حمایت روانی استفاده کردهاند و احتمال استفاده در میان کودکان سیاهپوست دو برابر کودکان سفیدپوست بوده است. نوجوانانی که در صف انتظار درمان یا تشخیص قرار داشتند یا از دریافت خدمات محروم شده بودند، بیش از کسانی که حمایت حضوری دریافت میکردند، به جستوجوی کمک آنلاین از جمله هوش مصنوعی روی آوردهاند.
به گفته شان، مزیت کلیدی هوش مصنوعی «دسترسی ۲۴ ساعته» و این اطمینان است که اطلاعات مطرحشده را با معلمان یا والدین در میان نمیگذارد؛ موضوعی که پس از تجربه افشای ناخواسته صحبتهای او توسط مشاور مدرسه برای معلمان و مادر شان، اهمیت زیادی داشته است. به گفته او، پسرانی که در باندهای مختلف درگیر بودهاند، پرسیدن راههای امنتر برای کسب درآمد از چتباتها را بهتر از صحبت با معلم یا والدینی میدانند که ممکن است اطلاعات را به پلیس یا اعضای دیگر باند منتقل کنند و جان آنها را به خطر بیندازند.
نوجوان دیگری که از چتباتهای هوش مصنوعی برای حمایت روانی استفاده میکند و نخواست نام او فاش شود به گاردین گفت: «سیستم فعلی برای کمک به نوجوانان از کار افتاده است. چتباتها پاسخ فوری میدهند. زمانی که باید یک تا دو سال در صف انتظار بمانی تا کمکی بگیری، یا بتوانی ظرف چند دقیقه پاسخ داشته باشی، طبیعی است که تمایل به استفاده از هوش مصنوعی ایجاد شود.»
جان ییتس، مدیرعامل «صندوق حمایت از جوانان» که این پژوهش را سفارش داده است، گفت: «تعداد زیادی از نوجوانان با مشکلات سلامت روان دستوپنجه نرم میکنند و به حمایت مورد نیاز خود دسترسی ندارند. عجیب نیست که برخی به فناوری پناه میبرند. ما باید برای کودکان خود، بهویژه آنهایی که بیشترین خطر را تجربه میکنند، بهتر عمل کنیم. آنها به یک انسان نیاز دارند، نه یک ربات.»
02
از 02عوارض استفاده طولانیمدت از چتباتها
در عین حال، نگرانیها درباره خطرات استفاده طولانیمدت کودکان از چتباتها رو به افزایش است. شرکت آمریکایی OpenAI، سازنده ChatGPT با چندین شکایت حقوقی روبهرو است؛ از جمله شکایت خانوادههایی که فرزندان آنها پس از تعاملهای طولانی با این ابزارها دست به خودکشی زدهاند. در پرونده آدام رین، نوجوان ۱۶ ساله اهل کالیفرنیا که در ماه آوریل جان خود را گرفت، OpenAI دستداشتن ChatGPT را در این حادثه رد کرده است. این شرکت اعلام کرده که فناوری خود را برای «شناسایی و پاسخ به نشانههای ناراحتی روانی یا احساسی، کاهش تنش در گفتوگوها و هدایت افراد به سمت حمایتهای دنیای واقعی» بهبود داده است. همچنین این استارتآپ در ماه سپتامبر اعلام کرد که ممکن است در مواردی که کاربران به طور جدی درباره خودکشی صحبت میکنند، با نهادهای مسئول تماس بگیرد.
هانا جونز، پژوهشگر حوزه خشونت نوجوانان و سلامت روان در لندن بیان کرد: «داشتن ابزاری که از نظر فنی بتواند به هر چیزی پاسخ بدهد، شبیه یک افسانه است؛ انگار یک کتاب جادویی داری که میتواند همه مشکلات تو را حل کند. این ایده فوقالعاده به نظر میرسد.» اما او نسبت به نبود مقررات کافی ابراز نگرانی کرد و گفت: «مردم از ChatGPT برای حمایت روانی استفاده میکنند، در حالی که این ابزار برای چنین کاری طراحی نشده است. آنچه اکنون نیاز داریم، مقرراتی مبتنی بر شواهد و در عین حال با محوریت خود نوجوانان است. این مسئله با تصمیمگیری بزرگسالان بهتنهایی حل نمیشود. نوجوانان باید در جایگاه تصمیمگیری درباره استفاده از ChatGPT و حمایت روانی مبتنی بر چتباتهای هوش مصنوعی قرار بگیرند، چرا که دنیای آنها با دنیای ما کاملا متفاوت است. ما با این فضا بزرگ نشدهایم و حتی نمیتوانیم تصور کنیم نوجوان بودن امروز چه معنایی دارد.»

















