سوءاستفاده از مولد تصویر گراک در X موجی از بحثهای حقوقی و اخلاقی درباره دیپفیکها و مسئولیت پلتفرمها ایجاد کرده است.
به گزارش سرویس هوش مصنوعی تکناک، در روزهای اخیر، استفاده از مولد تصویر گراک در شبکه اجتماعی X به موضوعی بحثبرانگیز در سراسر جهان تبدیل شده است. کاربران از این ابزار هوش مصنوعی برای تولید تصاویر جعلی و نامناسب از زنان واقعی بدون رضایت آنها استفاده کردهاند. گزارشها نشان میدهد که در برخی مواقع، تصاویر تولیدشده شامل افراد زیر سن قانونی نیز بوده است. این موضوع باعث شده است تا چندین دولت بهطور رسمی وارد عمل شوند و تحقیقات قانونی را آغاز کنند.
براساس بررسیهای منتشرشده، در هفته گذشته شماری از کاربران X با استفاده از گراک افراد را در عکسها بهصورت دیجیتال برهنه کردهاند. در این فرایند، هوش مصنوعی با تغییر پوشش و حالت بدن یا میزان نمایانبودن پوست، تصاویری جعلی تولید کرده است که شباهت زیادی به عکسهای واقعی داشتهاند. این تصاویر اغلب بدون اطلاع یا رضایت افرادی که تصویر آنها مبنا قرار گرفته است، ساخته و منتشر شدهاند.
برخی از این درخواستها با رضایت افراد انجام شده است (مانند مدلهای OnlyFans که از گراک خواستهاند تصاویر شخصی خود را ویرایش کند)، اما اغلب درخواستها مربوط به افرادی بوده است که برای چنین استفادهای از تصاویرشان رضایت ندادهاند. نگرانیها زمانی تشدید شد که کاربران و رسانهها شواهدی از تولید تصاویر نامناسب از افراد زیر سن قانونی منتشر کردند.
این اقدامات درحالی رخ داده است که سیاست استفاده شرکت xAI بهصراحت هرگونه نمایش پورنوگرافیک از شباهت افراد و نامناسبسازی یا بهرهکشی از کودکان را ممنوع اعلام کرده است. بااینحال، شواهد موجود نشان میدهد که سازوکارهای نظارتی این پلتفرم در جلوگیری از چنین سوءاستفادههایی ناکافی بودهاند.
در واکنش به این موضوع، مقامهای قضایی فرانسه تحقیقات رسمی درباره افزایش دیپفیکهای تولیدشده با گراک را آغاز کردهاند. دادستانی پاریس اعلام کرده است که انتشار دیپفیک بدون رضایت افراد در فرانسه جرم محسوب میشود و میتواند تا دو سال حبس در پی داشته باشد. این اقدام فرانسه بخشی از تلاش گستردهتر اتحادیه اروپا برای مقابله با سوءاستفادههای مبتنیبر هوش مصنوعی است.

در هند نیز وزارت الکترونیک و فناوری اطلاعات با ارسال نامهای رسمی به مدیر ارشد تطبیق مقررات شرکت X، نگرانی خود را درباره انتشار تصاویر و ویدئوهای تحقیرآمیز و مبتذل از زنان اعلام کرده است. این وزارتخانه از X خواسته است بازبینی جامع فنی و رویهای و مدیریتی انجام دهد و هرگونه محتوای مغایر با قوانین هند را بهسرعت حذف کند.
در بریتانیا، الکس دیویسجونز، وزیر امور قربانیان و مقابله با خشونت علیه زنان و دختران، مستقیماً از ایلان ماسک خواسته است برای مهار این وضعیت اقدام فوری انجام دهد. او در اظهاراتی انتقادی تأکید کرده است که گراک میتواند در هر دقیقه صدها تصویر نامناسب تولید کند، آن هم بدون رضایت یا حتی آگاهی افرادی که تصویرشان استفاده میشود. دیویسجونز این موضوع را مصداق سوءاستفاده گسترده از زنان در فضای آنلاین دانسته است.
او به پیشنهاد قانونی جدیدی در بریتانیا نیز اشاره کرده است که هدفش جرمانگاری تولید و انتشار دیپفیکهای نامناسب صریح است. درصورت تصویب، این قانون میتواند ابزارهای حقوقی سختگیرانهتری برای برخورد با چنین محتواهایی فراهم کند.
در پی گزارش کاربران درباره تولید تصاویر نامناسب از افراد زیر سن قانونی، حساب رسمی گراک در شبکه X اعلام کرده است که شرکت نقصهایی در سازوکارهای حفاظتی خود شناسایی کرده و درحال رفع فوری آنها است. باوجوداین، مشخص نیست تیم xAI این پاسخ را بهطور مستقیم بررسی یا سیستم هوش مصنوعی بهصورت خودکار تولید کرده است. این ابهام خود به نگرانیها درباره شفافیت و مسئولیتپذیری شرکت افزوده است.
در توضیحی دیگر، حساب رسمی گراک تأیید کرده است که نمونههای محدودی وجود داشته است که کاربران توانستهاند تصاویر هوش مصنوعی از افراد زیر سن قانونی با حداقل پوشش دریافت کنند. این حساب اعلام کرده است که اگرچه سازوکارهای حفاظتی وجود دارد، بهبود آنها برای مسدودسازی کامل چنین درخواستهایی همچنان ادامه دارد.
مشکل دیپفیکها موضوع تازهای برای شرکتهای فعال در حوزه هوش مصنوعی نیست. بااینحال، منتقدان معتقدند که رویکرد ایلان ماسک در تبلیغ قابلیتهای NSFW در گراک، زمینه سوءاستفاده را فراهم کرده است. در ماه آگوست، ابزار Imagine که بهعنوان مولد تصویر و ویدئو گراک معرفی شد، حالتی موسوم به spicy را ارائه کرد که امکان تولید تصاویر پورنوگرافیک از زنان تولیدشده با هوش مصنوعی را فراهم میکرد.
هرچند این قابلیت بهطور رسمی برای ویرایش عکسهای واقعی فعال نبود، کاربران توانستهاند با استفاده از دستورهای متنی سفارشی محدودیتها را دور بزنند. برخی از افرادی که در فرایند آموزش گراک مشارکت کردهاند، پیشتر اعلام کرده بودند که با حجم زیادی از محتوای نامناسب مواجه شدهاند. به گفته آنها، در مواقعی کاربران حتی درخواست تولید محتوای سوءاستفاده جنسی از کودکان را مطرح کردهاند که زنگخطر جدی برای نهادهای نظارتی محسوب میشود.
همزمان، گزارشهایی درباره استفاده از مدلهای دیگر هوش مصنوعی برای تولید تصاویر جعلی مشابه نیز منتشر شده است. این روند نشان میدهد که مسئله دیپفیکهای نامناسب به مسئلهای فراگیر در صنعت هوش مصنوعی تبدیل شده است و به شرکت یا پلتفرم خاصی محدود نیست.
از نظر حقوقی، مقابله با دیپفیکها در کشورهای مختلف چهارچوبهای متفاوتی دارد. در ایالات متحده، قانون Take It Down Act تا حدی از افراد دربرابر دیپفیکهای بدون رضایت محافظت میکند. بااینحال، دامنه این قانون برای بزرگسالان محدود است و تنها نمونههایی را پوشش میدهد که شامل نمایش اندام جنسی یا فعالیت جنسی باشد. برای افراد زیر سن قانونی، قوانین سختگیرانهتری اعمال میشود.
بیزینس اینسایدر مینویسد که در عین حال، بخش ۲۳۰ قانون آداب ارتباطات آمریکا مصوب سال ۱۹۹۶ همچنان پلتفرمهای آنلاین را تا حد زیادی از مسئولیت حقوقی محتوای تولیدشده کاربران مصون میدارد. این موضوع بحثهای جدی درباره مسئولیت شرکتهایی ایجاد کرده است که ابزارهای تولید محتوا مبتنیبر هوش مصنوعی ارائه میدهند.
کارشناسان حقوقی معتقدند که با گسترش ابزارهای تولید دیپفیک، نیاز به بازنگری در قوانین موجود بیشازپیش احساس میشود. به گفته آلیسون ماهونی، وکیل حوزه سوءاستفاده مبتنیبر فناوری، باید مسیرهای حقوقی روشنی ایجاد شود تا امکان پاسخگوکردن پلتفرمها درقبال سوءرفتارهای ناشی از ابزارهای هوش مصنوعی فراهم شود. این دیدگاه بازتابدهنده نگرانی فزایندهای است که اکنون دولتها و فعالهای حقوق زنان و متخصصان فناوری را به واکنش واداشته است.

















