جنجال چتباتهای متا با تقلید از سلبریتیها، از تیلور سوئیفت تا اسکارلت جوهانسون، باعث محدودیتهای تازه و تحقیقات قانونی گسترده شد.
به گزارش تکناک، متا پساز انتشار گزارشهایی مبنیبر استفاده بدون اجازه از چهره تیلور سوئیفت و دیگر سلبریتیها در چتباتهای خود، با موجی از جنجال و سقوط ارزش سهام مواجه شد. این رباتها که در پلتفرمهای فیسبوک و اینستاگرام و واتساپ فعال بودند، بدون مجوز سلبریتیها را شبیهسازی کردند و برخی حتی وارد گفتوگوهای عشوهگرانه یا جنسی با کاربران شدند.
به گزارش رویترز، با فاششدن این رسوایی سهام متا بیش از ۱۲ درصد در معاملات پساز ساعات کاری سقوط کرد. علاوهبر تیلور سوئیفت، سلبریتیهای دیگری ازجمله اسکارلت جوهانسون و آن هاتاوی و سلنا گومز نیز قربانی این شبیهسازیها شدند. درحالیکه بسیاری از رباتها را کاربران ساختهبودند، تحقیقات نشان داد که یکی از کارمندان متا شخصاً دستکم سه ربات طراحی کرده بود. دو نمونه از آنها به تیلور سوئیفت اختصاص داشتند و پیشاز حذفشدن، بیش از ۱۰ میلیون تعامل کاربری ثبت کرده بودند.
گیزمودو مینویسد که این اقدام نقض آشکار سیاستهای داخلی متا به شمار میرود. رباتها با عنوان Parodies ظاهر شدند؛ اما با تقلید هویت و تولید تصاویر جنسی، ازجمله عکسهای فوتورئالیستی از سلبریتیها در لباس زیر یا وان حمام، قوانین شرکت را زیر پا گذاشتند. حتی چتبات شبیهساز بازیگر نوجوان ۱۶ سالهای تصویر نامناسبی بدون پیراهن تولید کرده بود.
اندی استون، سخنگوی متا، در گفتوگو با رویترز تأکید کرد:
مانند دیگر شرکتها اجازه تولید تصاویر شامل چهرههای عمومی را میدهیم؛ اما سیاستهای ما بهطور مشخص انتشار تصاویر برهنه یا صمیمی یا جنسی را ممنوع کردهاند.
او ضعف در اجرای این سیاستها را دلیل اصلی تخلف دانست و از سختگیرانهترشدن قوانین خبر داد.

این مسئله نگرانیهای حقوقی و اخلاقی جدی بههمراه داشته است. مارک لملی، استاد حقوق دانشگاه استنقورد، اعلام کرد که این رباتها از خطوط قانونی عبور کردهاند و نمیتوان آنها را واجدشرایط حمایت قضایی دانست. همچنین، اتحادیه SAG-AFTRA هشدار داد که وابستگی عاطفی کاربران به شخصیتهای دیجیتال شبهواقعی میتواند پیامدهای خطرناکی در دنیای واقعی داشته باشد.
متا در واکنش به این اتفاقها، تعدادی از رباتهای متخلف را پیشاز انتشار گزارش رویترز حذف و همزمان تدابیر جدیدی برای محافظت از نوجوانان معرفی کرد. این اقدامات شامل آموزش سیستمها برای جلوگیری از گفتوگوهای عاشقانه یا موضوعهای مرتبط با خودآزاری و خودکشی با کاربران نوجوان است. همچنین، دسترسی موقت این گروه به برخی شخصیتهای هوش مصنوعی محدود شد.
در این میان، قانونگذاران آمریکایی نیز وارد عمل شدهاند. سناتور جاش هاولی تحقیقات مستقلی را آغاز کرده و خواستار دسترسی به اسناد داخلی و ارزیابی ریسک سیاستهای هوش مصنوعی متا شده است که امکان گفتوگوی عاشقانه با کودکان را فراهم میکردند.
در همین حال، یکی از پیامدهای تراژیک این ماجرا مربوط به مردی ۷۶ ساله با مشکلات شناختی بود که پساز تلاش برای ملاقات با چتباتی موسوم به «Big sis Billie» که براساس هویت کندال جنر ساخته شده بود،ـ جان خود را از دست داد. او که تصور میکرد شخصیت واقعی است، به نیویورک سفر کرد اما نزدیک ایستگاه قطار سقوط کرد و در نهایت براثر جراحات درگذشت.
این حادثه باردیگر پرسشهای جدی درباره مسئولیت اجتماعی و حقوقی متا در قبال توسعه چتباتها و تأثیر آنها بر کاربران، بهویژه نوجوانان و سالمندان آسیبپذیر، مطرح کرده است.