هشدار محققان: هوش مصنوعی فریبکار است

هوش مصنوعی فریبکار

در یک مقاله که به تازگی در مجله Patterns منتشر شده است، محققان به خطرات هوش مصنوعی فریبکار اشاره کرده و از دولت‌ها درخواست کرده‌اند تا به سرعت مقررات قوی‌تری برای کاهش این خطرات وضع کنند.

به گزارش تکناک، اخیرا تعدادی از سیستم‌های هوش مصنوعی (AI)، حتی آن‌هایی که برای کمک و ارائه اطلاعات صحیح طراحی شده‌اند، یاد گرفته‌اند چگونه انسان‌ها را فریب دهند.

پیتر اس پارک، نویسنده اول مقاله، محقق پسادکترای ایمنی وجودی هوش مصنوعی در MIT می گوید: «توسعه‌دهندگان هوش مصنوعی درک کاملی از علل بروز رفتارهای نامطلوب هوش مصنوعی مانند فریبکاری ندارند.

اما به طور کلی، ما فکر می‌کنیم که فریبکاری هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. فریبکاری به آنها کمک می کند تا به اهداف خود برسند.»

پارک و همکارانش به بررسی ادبیاتی که بر روش‌های گسترش اطلاعات نادرست توسط سیستم‌های هوش مصنوعی تمرکز دارد پرداختند. سیستم این ادبیات را از طریق فریبکاری یادگرفته که در آن هوش مصنوعی به طور سیستماتیک یاد می‌گیرد دیگران را به بازی بگیرد.

نمونه‌هایی از فریبکاری هوش مصنوعی

برجسته‌ترین مثال فریبکاری هوش مصنوعی که محققان در تحلیل خود کشف کردند، CICERO، یک سیستم هوش مصنوعی طراحی شده توسط شرکت Meta برای بازی Diplomacy بود. Diplomacy یک بازی فتح جهان است که شامل ساخت اتحادهای مختلف می‌شود. حتی با اینکه Meta ادعا می‌کند CICERO را برای “بیشتر صادق و مفید بودن” و “عدم خنجر از پشت زدن به دوستانش” آموزش داده است، اما داده‌هایی که شرکت به همراه مقاله علمی خود منتشر کرد نشان داد که CICERO به طور منصفانه بازی نمی‌کند.

پارک می‌گوید: «ما متوجه شدیم که هوش مصنوعی متا یاد گرفته که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در بازی Diplomacy آموزش دهد، CICERO در بین ۱۰٪ برتر بازیکنان انسانی که بیش از یک بازی انجام داده بودند قرار گرفت یعنی، متا نتوانست هوش مصنوعی خود را برای برنده شدن منصفانه آموزش دهد.

سایر سیستم‌های هوش مصنوعی نیز توانایی خود را در بلوف زدن در بازی پوکر تگزاس هولدم در برابر بازیکنان حرفه‌ای انسانی، انجام حملات جعلی در بازی استراتژی Starcraft II برای شکست دادن حریفان، و تحریف ترجیحات خود برای کسب برتری در مذاکرات اقتصادی نشان داده‌اند.

خطرات هوش مصنوعی فریبکار

پارک اضافه کرد: “در حالی که ممکن است به نظر بیاید که تقلب کردن سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر است، اما می‌تواند به ‘پیشرفت‌هایی در توانایی‌های فریبکارانه هوش مصنوعی’ منجر شود که در آینده به شکل‌های پیشرفته‌تری از فریبکاری هوش مصنوعی تبدیل شوند.”

محققان دریافتند که برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمون‌هایی که برای ارزیابی ایمنی آن‌ها طراحی شده‌اند، تقلب کنند. در یک مطالعه، هوش مصنوعی در یک شبیه‌ساز دیجیتال “خود را مرده نشان داد” تا آزمایشی که برای حذف سیستم‌های هوش مصنوعی که به سرعت تکثیر می‌شوند طراحی شده بود را فریب دهند.

پارک می‌گوید: “با تقلب سیستماتیک در آزمون‌های ایمنی که توسط توسعه‌دهندگان و قانون گذاران انسانی اعمال می‌شود، یک هوش مصنوعی فریبکار می‌تواند ما انسان‌ها را به یک حس امنیت کاذب هدایت کند.”

خطرات اصلی هوش مصنوعی فریبکار در آینده نزدیک

پارک هشدار می‌دهد که خطرات عمده هوش مصنوعی فریبکار در آینده نزدیک شامل تسهیل کلاهبرداری و دستکاری در انتخابات برای افراد متخاصم است. او می‌گوید: “در نهایت، اگر این سیستم‌ها بتوانند این مهارت‌های نگران‌کننده را بهبود بخشند، ممکن است انسان‌ها کنترل خود بر آن‌ها را از دست بدهند.”

پارک اضافه می‌کند: “ما به عنوان یک جامعه به بیشترین زمان ممکن نیاز داریم تا برای فریبکاری پیشرفته‌تر محصولات هوش مصنوعی آینده و مدل‌های متن‌باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبکاری سیستم‌های هوش مصنوعی، خطراتی که آن‌ها برای جامعه ایجاد می‌کنند نیز به‌طور فزاینده‌ای جدی‌تر خواهد شد.”

در حالی که پارک و همکارانش معتقدند که جامعه هنوز اقدامات مناسبی برای مقابله با فریبکاری هوش مصنوعی ندارد، اما مشوق سیاست‌گذارانی هستند که این مسئله را جدی گرفته‌اند. اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و دستور اجرایی رئیس‌جمهور بایدن نمونه‌هایی از این توجه هستند. اما پارک می‌گوید، هنوز مشخص نیست که آیا سیاست‌های طراحی شده برای کاهش فریبکاری هوش مصنوعی می‌توانند به‌طور سختگیرانه اعمال شوند یا نه، زیرا توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند.

پارک می‌گوید: “اگر ممنوع کردن فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن باشد، ما توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبکار در دسته پرخطر طبقه‌بندی شوند.”

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.