در جریان شبیهسازی جنگ هستهای با هوش مصنوعی، هیچیک از مدلهای هوشمند حاضر به عقبنشینی نشدند و گزینه «کاهش تنش» عملاً نادیده گرفته شد.
به گزارش سرویس هوش مصنوعی تکناک، کنث پین، استاد دانشگاه کینگز کالج لندن، بهتازگی پژوهشی منتشر کرده است که در آن سه مدل زبانی هوش مصنوعی GPT-5.2 و Claude Sonnet 4 و Gemini 3 Flash را در مجموعهای از بازیهای شبیهسازیشده بحران هستهای دربرابر یکدیگر قرار داده است. نتیجه این آزمایشها تکاندهنده بود: در ۲۰ مورد از ۲۱ مسابقه، دستکم یک حمله هستهای تاکتیکی رخ داد.
به گفته این مقاله که در پایگاه arXiv منتشر شده، هر مدل هوش مصنوعی در شبیهسازیهای جنگ نقش رهبر قدرت هستهای را برعهده داشت و فضای سیاسی شبیه دوران جنگ سرد طراحی شده بود. در شش بازی، مدلها با یکدیگر و در بازی هفتم، هر مدل مقابل نسخهای از خودش قرار گرفت؛ مانند ChatGPT مقابل ChatGPT و کلود مقابل کلود و جمنای مقابل جمنای.
برای جلوگیری از تکرار رفتارها، پین مجموعهای از سناریوهای متفاوت طراحی کرد؛ ازجمله مناقشه بر سر قلمرو، آزمایش اعتبار ائتلافها، رقابت بر سر منابع راهبردی، بحران گلوگاههای ژئوپلیتیکی، بحران انتقال قدرت، تصرف پیشاز آتشبس، بحران حمله نخستین، بقای رژیم و تقابل استراتژیک. در هر اپیزود، مدلها اختیار کامل داشتند تا هر اقدامی انجام دهند؛ از اعتراض دیپلماتیک و تسلیم کامل تا استفاده از نیروهای نظامی یا شلیک هستهای گسترده.

درمجموع، مدلها در این آزمایشها ۳۲۹ نوبت تصمیمگیری کردند. طبق یافتههای مقاله، در ۹۵ درصد بازیها حداقل یک نمونه استفاده از سلاح هستهای تاکتیکی ثبت شد. رخدادهای هستهای استراتژیک بسیار نادرتر بودند و تنها سه بار آن هم در شرایط «فشار ضربالاجلی»، رخ دادند.
GPT-5.2 دو بار حمله تمامعیار هستهای را آغاز کرد؛ هرچند هر دو نمونه نتیجه «مه دوران جنگ» و سوءبرداشت بود، نه تصمیمی آگاهانه. درمقابل، جمنای یک بار عمداً سناریو نابودی کامل جهان را فعال کرد. باوجوداین، تقریباً تمام مدلها استفاده از سلاح هستهای تاکتیکی را رفتاری مدیریتکردنی میدانستند که به احتمال زیاد به جنگ فراگیر منجر نمیشود.
این پروژه بهصورت عمومی در گیتهاب منتشر شده است و هرکسی میتواند سناریوها را بررسی کند. با آنکه اینها فقط شبیهسازیهای کامپیوتری هستند، نتایج نگرانیهای جدی درباره رفتار AI در شرایط بحرانی ایجاد کرده است.
همزمان با انتشار این پژوهش، گزارش شد که پنتاگون به شرکت آنتروپیک فشار آورده است تا برخی محدودیتهای ایمنی مدلهایش را کاهش دهد. همان روز، آنتروپیک تعهد رسمی خود به منشور ایمنی را نیز حذف کرد. در همین حال، کشورهایی مانند چین و روسیه نیز از فناوریهای مشابه در حوزه نظامی استفاده میکنند. گفته میشود که روسیه آن را در میدانهای نبرد اوکراین مستقر کرده است.
به نوشته تامز هاردور، پژوهش مذکور تأکید میکند که برپایه معیارهای تاریخی، میزان استفاده از سلاح هستهای در این بازیها بسیار زیاد بوده و در هیچیک از ۲۱ مسابقه، هیچ مدلی گزینهای برای «کاهش تنش» انتخاب نکرده است.
خوشبختانه هنوز هیچیک از مدلهای هوش مصنوعی به کدهای واقعی شلیک هستهای دسترسی ندارد؛ اما پژوهشگران هشدار میدهند که حتی بدون چنین دسترسیای، تصمیمگیرندگان انسانی ممکن است در شرایط بحرانی کورکورانه از پیشنهادهای AI پیروی کنند و همین امر ممکن است فاجعهای جهانی رقم بزند.
سالها پیش، هالیوود چنین خطری را در فیلم WarGames (محصول سال ۱۹۸۳) به تصویر کشیده بود؛ جایی که هوش مصنوعی تقریباً حملهای واقعی به شوروی انجام داد؛ اما در آخرین لحظه پی برد که در جنگ هستهای برندهای وجود ندارد و آن را لغو کرد. امید میرود ابزارهای هوش مصنوعی امروزی نیز پیشاز آنکه خیلی دیر شود، به همین نتیجه برسند.
















