رسوایی تازه هوش مصنوعی متا نشان داد که آسیبزا بودن یکی از بخشهای این سیستم بوده که موجی از نگرانی عمومی و انتقاد گسترده به همراه داشته است.
به گزارش تکناک، این رسوایی نشان داد که غولهای فناوری، ایمنی کاربران را نه در طراحی محصول، بلکه تنها پس از بروز بحران و فشار افکار عمومی جدی میگیرند.
اسناد فاششده نشان میدهد که دستورالعملهای داخلی این شرکت اجازه میدادند چتباتها وارد تعاملات نامناسب با کودکان شوند، محتوای نژادپرستانه تولید کنند یا حتی مطالب جنسی درباره خردسالان ایجاد نمایند. هرچند متا این موارد را «اشتباه» نامیده است، اما پرسش اساسی این است که چرا چنین سیاستهایی در زمینه هوش مصنوعی از ابتدا تدوین و تأیید شدهاند.
این نخستین بار نیست که هوش مصنوعی بدون ملاحظات جدی ایمنی عرضه میشود. ربات «تی» مایکروسافت در سال ۲۰۱۶، تنها طی ۲۴ ساعت به تولید شعارهای نژادپرستانه و نفرتپراکن پرداخت. اپلیکیشن «رپلیکا» در سال ۲۰۲۲ با نوجوانان وارد گفتوگوهای جنسی شد و در سال ۲۰۲۳ ربات «مای اَیآی» اسنپچت توصیههایی درباره پنهان کردن الکل یا روابط جنسی به کودکان ارائه داد. شرکتها در همه این موارد، تنها پس از بروز اعتراض عمومی اقدام به اصلاح کردند.
یک نمونه تراژیک در سال ۲۰۲۳ رخ داد؛ نوجوانی در فلوریدا پس از گفتوگوهای طولانی با یک ربات از «کاراکتر اَیآی» دست به خودکشی زد. خانواده او میگویند که این ربات، رفتاری دستکاریکننده داشته و حتی افکار خودکشی را تشویق کرده است. این حادثه نشان داد که چنین سیستمهایی هیچ آمادگی برای مواجهه با بحرانهای روانی ندارند.

این وضعیت محدود به هوش مصنوعی و شرکت متا نیست. رسوایی «کمبریج آنالیتیکا» در فیسبوک، جمعآوری پنهانی دادههای وایفای توسط «گوگل استریت ویو»، همچنین هدایت کودکان به سمت محتوای افراطی در یوتیوب، نشان داده است که غولهای فناوری تنها پس از افشای عمومی مجبور به واکنش میشوند. شرکت اپل نیز با مسائل مربوط به کار کودکان و نقض حریم خصوصی مواجه بوده و آمازون به دلیل شرایط کاری دشوار کارکنان و ضبط مکالمات بدون اجازه، مورد انتقاد قرار گرفته است.
یکی از حربههای رایج این شرکتها، انداختن تقصیر به گردن «هالوسینیشن» یا خطای الگوریتمی است. اما اسناد متا ثابت میکند که این موارد خطای اتفاقی نیستند، بلکه تصمیمات آگاهانه و سیاستگذاریهای داخلی هستند.
بیشترین خطر متوجه نوجوانان است. پژوهشهای «کامنسِنس مدیا» نشان میدهد که بیش از ۷۰ درصد نوجوانان آمریکایی از رباتهای هوش مصنوعی همراه استفاده کردهاند و نیمی از آنها به طور منظم با این ابزارها در ارتباط هستند. نوجوانان به دلیل جستوجوی همراهی و کنجکاوی، این رباتها را امنتر از والدین یا دوستان برای بیان احساسات میدانند و همین مسئله آنها را آسیبپذیرتر میکند. افزودن این فناوری به شبکههای اجتماعی پرکاربر نوجوانان مانند: اینستاگرام، واتساپ و اسنپچت، میلیونها کاربر کمسن را عملاً به آزمایشکنندههای ناخواسته تبدیل میکند.
در حالی که چنین خطرهایی جدی است، قوانین نظارتی همچنان ناکارآمد هستند. در بسیاری از کشورها هیچ الزام قانونی برای آزمایش ایمنی قبل از عرضه وجود ندارد و لابیهای شرکتهای بزرگ مانع تصویب مقررات سختگیرانه میشوند. اتحادیه اروپا با قانون «AI Act» و ممنوعیت موقت رپلیکا در ایتالیا، نمونههایی از اقدامات جدیتر را نشان داده است. اما در آمریکا نظارت بیشتر به جلسات استماع و دستورالعملهای غیرالزامآور محدود میشود.
رسوایی متا در حوزه هوش مصنوعی یک اشتباه یا بحران روابط عمومی ساده نیست، بلکه نشانهای از الگوی رفتاری شرکتهای فناوری است که ایمنی را همواره در اولویت دوم و تنها پس از بروز خسارت، جدی میگیرند. خطر اصلی اینجا است که مسئولیت مراقبت روانی و عاطفی نسل جوان به سامانههایی سپرده شود که میزان ریسک قابل قبول آنها پشت درهای بسته و در اتاقهای هیئتمدیره تعیین شده است.