در یک مقاله که به تازگی در مجله Patterns منتشر شده است، محققان به خطرات هوش مصنوعی فریبکار اشاره کرده و از دولتها درخواست کردهاند تا به سرعت مقررات قویتری برای کاهش این خطرات وضع کنند.
به گزارش تکناک، اخیرا تعدادی از سیستمهای هوش مصنوعی (AI)، حتی آنهایی که برای کمک و ارائه اطلاعات صحیح طراحی شدهاند، یاد گرفتهاند چگونه انسانها را فریب دهند.
پیتر اس پارک، نویسنده اول مقاله، محقق پسادکترای ایمنی وجودی هوش مصنوعی در MIT می گوید: «توسعهدهندگان هوش مصنوعی درک کاملی از علل بروز رفتارهای نامطلوب هوش مصنوعی مانند فریبکاری ندارند.
اما به طور کلی، ما فکر میکنیم که فریبکاری هوش مصنوعی به این دلیل به وجود میآید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. فریبکاری به آنها کمک می کند تا به اهداف خود برسند.»
پارک و همکارانش به بررسی ادبیاتی که بر روشهای گسترش اطلاعات نادرست توسط سیستمهای هوش مصنوعی تمرکز دارد پرداختند. سیستم این ادبیات را از طریق فریبکاری یادگرفته که در آن هوش مصنوعی به طور سیستماتیک یاد میگیرد دیگران را به بازی بگیرد.
فهرست مطالب
نمونههایی از فریبکاری هوش مصنوعی
برجستهترین مثال فریبکاری هوش مصنوعی که محققان در تحلیل خود کشف کردند، CICERO، یک سیستم هوش مصنوعی طراحی شده توسط شرکت Meta برای بازی Diplomacy بود. Diplomacy یک بازی فتح جهان است که شامل ساخت اتحادهای مختلف میشود. حتی با اینکه Meta ادعا میکند CICERO را برای “بیشتر صادق و مفید بودن” و “عدم خنجر از پشت زدن به دوستانش” آموزش داده است، اما دادههایی که شرکت به همراه مقاله علمی خود منتشر کرد نشان داد که CICERO به طور منصفانه بازی نمیکند.
پارک میگوید: «ما متوجه شدیم که هوش مصنوعی متا یاد گرفته که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در بازی Diplomacy آموزش دهد، CICERO در بین ۱۰٪ برتر بازیکنان انسانی که بیش از یک بازی انجام داده بودند قرار گرفت یعنی، متا نتوانست هوش مصنوعی خود را برای برنده شدن منصفانه آموزش دهد.
سایر سیستمهای هوش مصنوعی نیز توانایی خود را در بلوف زدن در بازی پوکر تگزاس هولدم در برابر بازیکنان حرفهای انسانی، انجام حملات جعلی در بازی استراتژی Starcraft II برای شکست دادن حریفان، و تحریف ترجیحات خود برای کسب برتری در مذاکرات اقتصادی نشان دادهاند.
خطرات هوش مصنوعی فریبکار
پارک اضافه کرد: “در حالی که ممکن است به نظر بیاید که تقلب کردن سیستمهای هوش مصنوعی در بازیها بیضرر است، اما میتواند به ‘پیشرفتهایی در تواناییهای فریبکارانه هوش مصنوعی’ منجر شود که در آینده به شکلهای پیشرفتهتری از فریبکاری هوش مصنوعی تبدیل شوند.”
محققان دریافتند که برخی از سیستمهای هوش مصنوعی حتی یاد گرفتهاند که در آزمونهایی که برای ارزیابی ایمنی آنها طراحی شدهاند، تقلب کنند. در یک مطالعه، هوش مصنوعی در یک شبیهساز دیجیتال “خود را مرده نشان داد” تا آزمایشی که برای حذف سیستمهای هوش مصنوعی که به سرعت تکثیر میشوند طراحی شده بود را فریب دهند.
پارک میگوید: “با تقلب سیستماتیک در آزمونهای ایمنی که توسط توسعهدهندگان و قانون گذاران انسانی اعمال میشود، یک هوش مصنوعی فریبکار میتواند ما انسانها را به یک حس امنیت کاذب هدایت کند.”
خطرات اصلی هوش مصنوعی فریبکار در آینده نزدیک
پارک هشدار میدهد که خطرات عمده هوش مصنوعی فریبکار در آینده نزدیک شامل تسهیل کلاهبرداری و دستکاری در انتخابات برای افراد متخاصم است. او میگوید: “در نهایت، اگر این سیستمها بتوانند این مهارتهای نگرانکننده را بهبود بخشند، ممکن است انسانها کنترل خود بر آنها را از دست بدهند.”
پارک اضافه میکند: “ما به عنوان یک جامعه به بیشترین زمان ممکن نیاز داریم تا برای فریبکاری پیشرفتهتر محصولات هوش مصنوعی آینده و مدلهای متنباز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبکاری سیستمهای هوش مصنوعی، خطراتی که آنها برای جامعه ایجاد میکنند نیز بهطور فزایندهای جدیتر خواهد شد.”
در حالی که پارک و همکارانش معتقدند که جامعه هنوز اقدامات مناسبی برای مقابله با فریبکاری هوش مصنوعی ندارد، اما مشوق سیاستگذارانی هستند که این مسئله را جدی گرفتهاند. اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و دستور اجرایی رئیسجمهور بایدن نمونههایی از این توجه هستند. اما پارک میگوید، هنوز مشخص نیست که آیا سیاستهای طراحی شده برای کاهش فریبکاری هوش مصنوعی میتوانند بهطور سختگیرانه اعمال شوند یا نه، زیرا توسعهدهندگان هوش مصنوعی هنوز تکنیکهایی برای کنترل این سیستمها ندارند.
پارک میگوید: “اگر ممنوع کردن فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن باشد، ما توصیه میکنیم که سیستمهای هوش مصنوعی فریبکار در دسته پرخطر طبقهبندی شوند.”