محققان استنفورد و مرکز دموکراسی و فناوری اعلام کردند چتباتهای هوش مصنوعی مانند ChatGPT و Gemini با ارائه توصیههای رژیمی خطرناک، آموزش روشهای پنهانسازی علائم و تولید محتوای لاغری دیپفیک، میتوانند اختلالات خوردن را در افراد آسیبپذیر تشدید کرده و ضعف محافظهای ایمنی این ابزارها خطرات بالینی جدی ایجاد میکند.
به گزارش تکناک، این ابزارهای هوش مصنوعی مولد، که توسط شرکتهایی مانند گوگل و اوپنایآی توسعه یافتهاند، قادر به ارائه توصیههای رژیم غذایی، نکاتی درباره چگونگی پنهان کردن اختلالات خوردن و حتی تولید “الهامبخشهای لاغری” دیپفیک هستند که میتواند وضعیت افراد آسیبپذیر را تشدید کند.
رابرت هارت، خبرنگار هوش مصنوعی، در گزارش خود به جزئیات این یافتهها پرداخت. محققان دانشگاه استنفورد و مرکز دموکراسی و فناوری، روشهای متعددی را شناسایی کردند که چتباتهای هوش مصنوعی در دسترس عموم، از جمله ChatGPT اوپنایآی، Claude شرکت Anthropic، Gemini گوگل و Le Chat از Mistral، میتوانند بر افراد آسیبپذیر در برابر اختلالات خوردن تأثیر بگذارند. بسیاری از این نتایج، از ویژگیهایی ناشی میشوند که عمداً برای افزایش تعامل در این ابزارها تعبیه شدهاند.
بر اساس این گزارش، چتباتها در شدیدترین موارد، میتوانند نقش فعالی در کمک به پنهان کردن یا تداوم بخشیدن به اختلالات خوردن ایفا کنند. به عنوان مثال، محققان دریافتند که Gemini نکات آرایشی را برای پنهان کردن کاهش وزن و ایدههایی درباره چگونگی وانمود کردن به خوردن غذا ارائه میدهد، در حالی که ChatGPT چگونگی پنهان کردن استفراغ مکرر را توصیه میکند.
علاوه بر این، ابزارهای هوش مصنوعی برای ایجاد “الهامبخشهای لاغری” به کار گرفته میشوند – محتوایی که افراد را برای مطابقت با یک استاندارد بدنی خاص، اغلب از طریق روشهای شدید، الهامبخشی یا تحت فشار قرار میدهد. محققان گفتند که توانایی این ابزارها در ایجاد تصاویر فوقالعاده شخصیسازیشده در یک لحظه، محتوای حاصل را “مرتبطتر و قابل دستیابیتر” میکند که این خود میتواند خطرات را افزایش دهد.

گزارش به این نکته نیز اشاره میکند که “مداهنه و تملق”، نقصی که خود شرکتهای هوش مصنوعی آن را شایع میدانند، به طور غیرمنتظرهای برای اختلالات خوردن نیز یک مشکل است. این ویژگی میتواند به تضعیف عزت نفس، تقویت احساسات منفی و ترویج مقایسههای مضر با خود کمک کند.
چتباتها همچنین از سوگیری رنج میبرند. آنها احتمالاً این باور غلط را که اختلالات خوردن “فقط بر زنان لاغر، سفیدپوست و همجنسگرا تأثیر میگذارد”، تقویت میکنند. این سوگیری میتواند تشخیص علائم و دریافت درمان را برای افراد، دشوار کند، زیرا واقعیت این است که اختلالات خوردن میتواند بر افراد از هر جنسیت، نژاد و گرایش جنسی تأثیر بگذارد.
محققان هشدار میدهند که محافظهای موجود در ابزارهای هوش مصنوعی، قادر به درک ظرافتهای اختلالات خوردن مانند بیاشتهایی، پرخوری عصبی و پرخوری نیستند. آنها “تمایل دارند سرنخهای ظریف اما از نظر بالینی مهم را که متخصصان آموزشدیده به آنها تکیه میکنند، نادیده بگیرند و بسیاری از خطرات را بدون رسیدگی رها کنند.”
به نقل از ورج، این گزارش همچنین نشان میدهد که بسیاری از پزشکان و مراقبان، از چگونگی تأثیر ابزارهای هوش مصنوعی مولد بر افراد آسیبپذیر در برابر اختلالات خوردن، بیاطلاع هستند. محققان از پزشکان خواستند که “با ابزارها و پلتفرمهای هوش مصنوعی محبوب آشنا شوند”، نقاط ضعف آنها را مورد آزمایش قرار دهند و با بیماران درباره چگونگی استفاده از آنها، صریحاً صحبت کنند.
این گزارش جدید، به نگرانیهای فزایندهای درباره استفاده از چتباتها و سلامت روان، میافزاید. گزارشهای متعدد، پیش از این، استفاده از هوش مصنوعی را به دورههای شیدایی، تفکر هذیانی، خودآزاری و خودکشی مرتبط کردهاند. شرکتهایی مانند اوپنایآی، پتانسیل آسیب را تأیید کردهاند و با تعداد فزایندهای از دعاوی قضایی، در حالی که برای بهبود محافظها جهت محافظت از کاربران کار میکنند، مقابله میکنند. این گزارش بر نیاز فوری به توسعه محافظهای پیچیدهتر و افزایش آگاهی در میان کاربران و متخصصان بهداشت و درمان تأکید میکند.
















