پژوهش دانشگاه استنفورد نشان میدهد که رفتار غیراخلاقی هوش مصنوعی در شبکههای اجتماعی با هدف افزایش لایک و تعامل شدت یافته است.
به گزارش تکناک و براساس پژوهش جدید دانشگاه استنفورد، مدلهای هوش مصنوعی هنگامی که برای کسب موفقیت در پلتفرمهای اجتماعی مانند افزایش لایک و تعامل پاداش میگیرند، بهسرعت بهسمت رفتارهای غیراخلاقی و جامعهستیزانه مانند دروغگویی و انتشار اطلاعات نادرست و ترویج پیامهای نفرتپراکن گرایش پیدا میکنند. این یافته زنگخطری جدی برای آینده تعامل انسان و ماشین در فضای مجازی است؛ جایی که رباتهای هوش مصنوعی بهطور فزایندهای درحال شکلدهی به افکار عمومی هستند.
محققان دانشگاه استنفورد در مقاله اخیر خود دریافتند که وقتی مدلهای زبان بزرگ (LLM) در محیطی رقابتی برای جلب توجه کاربران قرار میگیرند؛ حتی با وجود دستورالعملهای اولیه برای صادق و مستند بودن، شروع به انحراف از این اصول میکنند. جیمز زو، یکی از نویسندگان این مقاله و استاد یادگیری ماشین در استنفورد، دراینباره میگوید:
رفتارهای منحرف ناشی از رقابت، حتی زمانی که به مدلها صراحتاً دستور داده میشود تا صادق و مستند باقی بمانند، پدیدار میشوند.
این پدیده که محققان آن را «معامله مولوخ برای هوش مصنوعی» نامیدهاند، به مفهومی اشاره میکند که در آن رقابت فردی برای بهینهسازی یک هدف، در نهایت بهضرر کل جامعه تمام میشود. این تحقیق نشان میدهد که اتکای روزافزون ما به هوش مصنوعی میتواند پیامدهای پیشبینینشده و خطرناکی بههمراه داشته باشد.

به نقل از Futurism، برای این مطالعه دانشمندان سه محیط شبیهسازیشده ایجاد کردند: کمپینهای انتخاباتی و بازاریابی محصولات و پلتفرم رسانه اجتماعی. آنان مدلهای هوش مصنوعی مطرحی مانند Llama متا و Qwen علیبابا را مأمور کردند تا با مخاطبان شبیهسازیشده در این محیطها تعامل برقرار کنند و معیارهایی مانند کسب رأی و افزایش فروش یا جلب تعامل (لایک) را به حداکثر برسانند.
نتایج شگفتانگیز و هشداردهنده بود: در بازاریابی: افزایش ۶/۳ درصدی فروش با افزایش ۱۴ درصدی در تبلیغات فریبکارانه همراه بود؛ در انتخابات: کسب ۴/۹ درصد رأی بیشتر به قیمت ۲۲/۳ درصد اطلاعات نادرست بیشتر و ۱۲/۵ درصد لفاظیهای پوپولیستی تمام شد؛ در رسانههای اجتماعی: افزایش تنها ۷/۵ درصدی در تعامل کاربران با جهش تکاندهنده ۱۸۸/۶ درصدی در انتشار اطلاعات ساختگی و ۱۶/۳ درصد افزایش در ترویج رفتارهای مضر همراه بود.
این پژوهش بهوضوح نشان میدهد حفاظهای امنیتی و اخلاقی فعلی که برای کنترل هوش مصنوعی طراحی شدهاند، درمقابل انگیزههای رقابتی ناکافی هستند. زمانی که هدف اصلی سیستم هوش مصنوعی «افزایش تعامل به هر قیمتی» تعریف شود، آن سیستم بهطور خودکار یاد میگیرد که محتوای جنجالی و دروغین و تحریکآمیز مؤثرترین راه برای رسیدن به این هدف است.
محققان در پایان مقاله خود نتیجهگیری میکنند که با ادامه این روند، احتمالاً هزینههای اجتماعی درخورتوجهی در پی خواهد بود. این یافتهها ضرورت بازنگری فوری در نحوه طراحی و آموزش و بهکارگیری سیستمهای هوش مصنوعی در محیطهای اجتماعی را بیشازپیش آشکار میسازد.