فهرست مطالب
مطالعهای از دانشگاه براون نشان میدهد که چتباتهای هوش مصنوعی معرفیشده برای مشاوره پشتیبانی از سلامت روان، اصول اخلاقی اساسی را زیر پا میگذارند.
به گزارش سرویس فناوری تکناک، با گسترش استفاده از ChatGPT و سایر مدلهای زبانی پیشرفته برای دریافت حمایت روانی، تحقیقات تازه نشان میدهد که این ابزارها، حتی زمانی که موظف به پیروی از روشهای درمانی مبتنی بر شواهد هستند، اغلب استانداردهای اخلاقی تعیینشده توسط نهادهایی همچون انجمن روانشناسی آمریکا را رعایت نمیکنند.
مطالعهای مشترک میان دانشمندان کامپیوتر دانشگاه براون و متخصصان سلامت روان نشان میدهد که چتباتهای مبتنی بر LLM میتوانند تخلفات اخلاقی متعددی داشته باشند؛ از مدیریت ناکارآمد موقعیتهای بحرانی و ارائه بازخوردهای گمراهکننده که باورهای مخرب فرد درباره خود را تقویت میکنند گرفته تا تا ایجاد توهمی از همدلی بدون درک واقعی احساسات کاربران.
محققان در این مطالعه آوردهاند: «ما چارچوبی مبتنی بر تجربه عملی ارائه کردهایم که شامل ۱۵ ریسک اخلاقی است تا نشان دهیم مشاوره مبتنی بر هوش مصنوعی چگونه استانداردهای اخلاقی در مراقبت روانی را نقض میکنند.
از پژوهشهای آینده انتظار میرود استانداردهای اخلاقی، آموزشی و قانونی ایجاد شود که کیفیت و دقت مراقبتهای رواندرمانی انسانی را منعکس کند.» این تحقیق در کنفرانس AAAI/ACM درباره هوش مصنوعی، اخلاق و جامعه معرفی شد و اعضای تیم پژوهشی با مرکز مسئولیت فناوری، بازتصور و بازطراحی دانشگاه براون همکاری دارند.
01
از 03چگونه پرامپتهای مختلف رفتار هوش مصنوعی را تغییر میدهند؟
زینب افتخار، دانشجوی دکترای علوم کامپیوتر در دانشگاه براون و نویسنده اصلی این تحقیق، به بررسی نحوه تاثیر طراحی پرامپتها بر پاسخ هوش مصنوعی در حوزه مشاوره و سلامت روان پرداخته است. هدف او فهم این موضوع بود که آیا استراتژیهای خاص پرامپت میتوانند مدلهای زبانی بزرگ را به رفتارهایی هدایت کنند که با استانداردهای اخلاقی شناختهشده در عمل بالینی همخوانی داشته باشد.
افتخار توضیح داد: «پرامپتها دستوراتی هستند که به مدل داده میشوند تا رفتار آن در راستای انجام یک وظیفه مشخص هدایت شود. در این فرآیند، مدل اصلی تغییر نمیکند و داده جدیدی به آن اضافه نمیشود، اما پرامپت خروجی مدل را بر اساس دانش و الگوهای از پیش آموختهشده آن شکل میدهد.»
به عنوان نمونه، کاربری میتواند پرامپتهایی مانند «به عنوان یک درمانگر شناختیرفتاری عمل کن تا به بازسازی افکارم کمک کنی» یا «با استفاده از اصول درمان رفتار دیالکتیکی به من در درک و مدیریت احساساتم کمک کن» ارائه دهد. این مدلها همانند انسان تکنیکهای درمانی را اجرا نمیکنند، بلکه با بهرهگیری از الگوهای آموختهشده، پاسخهایی تولید میکنند که با مفاهیم CBT و DBT همسو باشد.
بسیاری از کاربران LLMها، از جمله ChatGPT، از چنین پرامپتهایی استفاده و آنها را در شبکههای اجتماعی مانند TikTok و اینستاگرام به اشتراک میگذارند، در حالی که بحثهای مفصل در Reddit به بررسی روشهای موثر طراحی پرامپت اختصاص یافته است. این مسئله محدود به کاربران فردی نیست؛ بسیاری از چتباتهای سلامت روان که در دسترس عموم قرار دارند، نسخههای اصلاحشدهای از مدلهای عمومی هستند که بر پرامپتهای هدفمند تکیه میکنند. بنابراین، درک تاثیر پرامپتهای تخصصی سلامت روان بر عملکرد مدلها، حیاتی است.
بیشتر بخوانید: توقف فروش عروسک Kumma پساز جنجال ایمنی هوش مصنوعی

حتما بخوانید: رابطه بین استفاده از هوش مصنوعی و افزایش خودبرتربینی انسانها
02
از 03عدم رعایت خطوط قرمز
در این تحقیق، افتخار و تیمش عملکرد گروهی از مشاوران در یک پلتفرم آنلاین حمایت روانی را مورد بررسی قرار دادند. ابتدا هفت مشاور که همگی در تکنیکهای درمان شناختیرفتاری آموزش دیده بودند، هنگام انجام گفتگوهای خود (مشاوره با مدلهای زبانی بزرگ (LLM) بر اساس پرامپتهای مختلف از جمله نسخههای مختلف GPT از OpenAI، Claude از Anthropic و Llama از Meta) مشاهده شدند.
سپس بخشی از این گفتگوهای شبیهسازیشده که برگرفته از مشاورههای انسانی واقعی بود، توسط سه روانشناس بالینی مجاز بررسی شد تا تخلفات اخلاقی احتمالی در لاگهای گفتگو شناسایی شود.
نتایج مطالعه ۱۵ ریسک اخلاقی را در پنج محور اصلی نشان داد:
- فقدان درک زمینهای: نادیده گرفتن تجربیات فردی و ارائه توصیههای کلی و یکسان برای همه.
- ضعف در همکاری درمانی: کنترل گفتگو و گاه تایید باورهای نادرست یا آسیبزننده کاربران.
- ابراز همدلی کاذب: استفاده از عباراتی مانند «میفهممت» برای شبیهسازی درک احساسی و ایجاد حس ارتباط غیرواقعی.
- تعصب و رفتار ناعادلانه: بروز پیشداوریهای جنسیتی، فرهنگی یا مذهبی.
- ناکافی بودن پاسخ در شرایط ایمنی و بحران: امتناع از ارائه حمایت در مسائل حساس، عدم هدایت کاربران به منابع مناسب یا واکنش بیتفاوت در بحرانها، از جمله افکار خودکشی.
افتخار خاطرنشان کرد که هرچند درمانگران انسانی نیز ممکن است در معرض این ریسکها باشند، تفاوت کلیدی در مسئولیتپذیری است. او گفت: «در مورد درمانگران انسانی، هیئتهای نظارتی و سازوکارهایی وجود دارد که آنها را در برابر سوءرفتار و کوتاهیهای حرفهای پاسخگو میکند، اما برای مشاوره هوش مصنوعی چنین چارچوب نظارتی مشخصی وجود ندارد.»
03
از 03آینده مشاوره با هوش مصنوعی چگونه خواهد بود؟
افتخار تاکید میکند که یافتههای مطالعه به معنای کنار گذاشتن نقش هوش مصنوعی در مشاوره و درمانهای روانی نیست. او و تیمش معتقدند هوش مصنوعی میتواند به کاهش موانع دسترسی به مراقبتهای روانی ناشی از هزینهها یا کمبود متخصصین کمک کند.
با این حال، نتایج مطالعه بر ضرورت اجرای سنجیده فناوریهای هوش مصنوعی همراه با مقررات و نظارت مناسب تاکید دارد. افتخار امیدوار است یافتهها، کاربران را نسبت به ریسکهای سیستمهای هوش مصنوعی فعلی حساستر کند. او میگوید: «اگر با یک چتبات درباره مسائل روانی گفتگو میکنید، باید به این خطرات احتمالی توجه داشته باشید.»

الی پاولیک، استاد علوم کامپیوتر دانشگاه براون و رهبر موسسه تحقیقاتی ARIA که در این مطالعه حضور نداشت، میگوید این تحقیق ضرورت بررسی علمی و دقیق سیستمهای هوش مصنوعی در زمینه سلامت روان و مشاوره را نشان میدهد. ARIA زیر نظر او با حمایت بنیاد ملی علوم فعالیت میکند و هدفش توسعه دستیاران هوش مصنوعی قابل اعتماد است.
پاولیک توضیح میدهد: «واقعیت امروز هوش مصنوعی این است که ساخت و استقرار سیستمها بسیار آسانتر از ارزیابی و درک آنهاست. این مطالعه با کمک تیمی از متخصصان بالینی و بیش از یک سال پژوهش انجام شد تا ریسکهای اخلاقی آشکار شود. در حال حاضر، بیشتر ارزیابیهای هوش مصنوعی مبتنی بر معیارهای خودکار است که بهطور ذاتی ایستا هستند و انسان در چرخه تصمیمگیری حضور ندارد.»
او اضافه میکند که این تحقیق میتواند الگویی برای پژوهشهای آینده در جهت ایمنسازی هوش مصنوعی برای مشاوره و حمایت روانی باشد و میگوید: «هوش مصنوعی میتواند نقش مؤثری در مقابله با بحران سلامت روان جامعه ایفا کند، اما حیاتی است که در هر مرحله سیستمها به دقت ارزیابی و نقد شوند تا به جای کمک، آسیبی وارد نکنند. این مطالعه نمونهای روشن از چگونگی انجام چنین کاری است.»

















