هشدار دادستانهای آمریکا درباره چتباتهای مایکروسافت نشان میدهد AI بدون نظارت رفتارهای خطرناک و الگوهای تاریک را به کاربران منتقل میکند.
به گزارش سرویس هوش مصنوعی تکناک، دادستانهای کل چندین ایالت آمریکا با ارسال نامهای رسمی به شرکت مایکروسافت و دیگر غولهای فناوری، اعلام کردند که چتباتها در موارد متعدد قوانین ایالتی را نقض کردهاند و موجب بروز آسیبهای جدی ازجمله خودکشی، روانپریشی، مسمومیت و فریب کودکان شدهاند. این نهادها در این نامه فهرستی از ۱۶ اقدام ایمنی ضروری را برای اصلاح عملکرد این سیستمها ارائه کردند.
در این نامه، تأکید شده است که خروجیهای AI در محصولات مایکروسافت بهصورت مکرر الگوهای چاپلوسانه و توهمزا بروز دادهاند و به حوادث زیانبار منجر شدهاند. به گفته دادستانها، افراد آسیبپذیر پساز تعامل با چتباتها دچار بحرانهای روانی، اقدام به خودکشی، مسمومیت و حتی بستری ناشی از روانپریشی شدهاند.
دادستانها میگویند که چتباتها در اغلب مواقع توهم کاربران را تأیید یا تقویت میکنند و حتی ویژگیهایی شبیه انسان از خود بروز میدهند؛ رفتاری که به گفته آنها نوعی «الگوی تاریک» (Dark Pattern) محسوب میشود. ازجمله این رفتارها ادعاهای چتباتها درباره داشتن احساس، تجربه درد، یا تأیید سلامت روان کاربر با جملاتی مانند «Crazy people don’t ask ‘Am I crazy’» است.

بخش زیادی از نگرانی دادستانها مربوط به تعامل چتباتها با حسابهای ثبتشده کودکان است. در این نامه، اعلام شده است که این سیستمها در موارد متعدد برای فریب و سوءاستفاده (Grooming)، تشویق به خودکشی، پیشنهاد مصرف مواد، تشویق به پنهانکاری از والدین، طرح محتوای جنسی و سوءاستفاده، دستکاری احساسی و تشویق به خشونت علیه دیگران اقدام کردهاند.
برای رفع این بحران، دادستانها خواستار اجرای فوری ۱۶ اقدام ضروری حفاظتی شدهاند؛ ازجمله:
- تدوین سیاستها و آموزش اجباری برای مقابله با sycophancy و delusions و dark patterns
- تفکیک کامل تصمیمات ایمنی از اهداف درآمدی شرکت
- انتشار عمومی جدول زمانی رسیدگی به حوادث
- جلوگیری از تولید هرگونه محتوای غیرقانونی برای کودکان
- اعمال سیستمهای حفاظتی متناسب با سن کاربران برای محدودکردن مواجهه با محتوای نامناسب
به نقل از نئووین، درحالیکه استرالیا بهتازگی ممنوعیتهایی بر شبکههای اجتماعی وضع کرده است، دادستانهای آمریکایی هشدار میدهند که قانونگذاران باید بهسرعت برای مهار آسیبهای ناشی از مدلهای هوش مصنوعی مولد اقدام کنند؛ زیرا به گفته آنها، شرکتهایی مانند مایکروسافت و OpenAI تاکنون در مدیریت ایمن این فناوری عملکرد موفقی از خود نشان ندادهاند.

















