آزمایش GPT-4 با بازی Doom

GPT-4

یکی از پژوهشگران مایکروسافت راهی برای بازی Doom با مدل GPT-4 از OpenAI ابداع کرده است؛ بازی‌ای که به‌نظر می‌رسد هوش مصنوعی در آن برتری ندارد.

به‌گزارش تک‌ناک، مدل هوش مصنوعی GPT-4 می‌تواند بازی Doom را انجام دهد؛ اما طبق گفته‌ آدریان دِوِینتر، پژوهشگر مایکروسافت، این هوش مصنوعی در انجام بازی یادشده چندان درخشش ندارد. این پژوهشگر هشدار می‌دهد که اشتباه‌های مدل GPT-4 در بازی Doom می‌تواند به سوءاستفاده‌های بالقوه در کاربردهای جدی‌تر منجر شود.

آدریان دِوِینتر مقاله‌ای منتشر کرده و در وبلاگش نوشته است که سعی کرده ببیند آیا مدل GPT-4 می‌تواند بازی کلاسیک Doom را انجام دهد یا نه. او برای انجام این کار، GPT-4 را به Vision API وصل کرده است تا به مدل هوش مصنوعی امکان می‌دهد تصاویر بصری را دریافت کند و اعمال متناسبی را انجام دهد.

سپس، دِوِینتر برنامه‌ای نوشت تا از کامپیوتری که بازی Doom روی آن اجرا می‌شود، اسکرین‌شات بگیرد. این اسکرین‌شات‌ها به GPT-4 داده می‌شدند تا بتواند بازی را تمام کند. پاسخ‌های GPT-4 سپس به دستورهایی تبدیل می‌شدند که برای کنترل بازی به‌کار می‌رفتند.

دِوِینتر در این آزمایش به GPT-4 مجموعه‌ای از تولیدکننده‌های پیام داد که راهنمای کامل‌کردن بازی را دریافت کرده بودند و می‌توانستند اقدامات انجام‌شده‌ قبلی را در نظر بگیرند. نتایج نشان داد که فناوری OpenAI می‌تواند Doom را نسبتاً موفق بازی کند؛ یعنی هوش مصنوعی به‌اندازه‌ کافی باهوش است که در نقشه حرکت و به دشمنان شلیک کند.

بااین‌همه، پژوهشگر مایکروسافت در وبلاگش نوشته است که در‌مقایسه‌با عملکرد انسان، GPT-4 در انجام بازی افتضاح است. او برای مثال گفته است که مدل هوش مصنوعی گاهی اوقات کارهای احمقانه‌ای انجام می‌دهد؛ مثلاً اینکه گیر می‌کند و فقط به دیوار مشت می‌زند یا به بشکه‌های انفجاری از فاصله‌ی نزدیک شلیک می‌کند.

علاوه‌بر‌این، GPT-4 اغلب دشمنان را نادیده می‌گرفت و وانمود می‌کرد که به‌محض خروج از میدان دیدش وجود ندارند. دِوینتر افزود: «بیشتر اوقات، مدل به این دلیل می‌مُرد که در گوشه‌ای گیر می‌افتاد و در‌نهایت از پشت با گلوله او را می‌زدند.»

نتایج نشان می‌دهد که GPT-4 زمانی‌که از استدلال بلندمدت و بقای اشیاء یا توانایی تشخیص این موضوع صحبت می‌شود که شیء همچنان وجود دارد؛ حتی زمانی که مشهود نیست، به‌مشکل برمی‌خورد. مشکل دیگر این است که مدل OpenAI گاهی اوقات دلیل نیاز به انجام اقدامات خاصی را حین بازی اختراع می‌کرد یا توهم می‌زد.

ناگفته نماند که GPT-4 برای بازی‌های تیراندازی اول شخص طراحی نشده است. باوجوداین، دِوینتر نتیجه گرفته است که مدل OpenAI به‌اندازه‌ کافی باهوش است که درها را باز کند، اهداف ساده را دنبال کند، با استفاده از تصاویر ساده‌ای از دنیای بازی ویدئویی دشمنان را شناسایی و به آن‌ها شلیک کند.

او در پایان اضافه کرد:

در‌حالی‌که این تحقیق بسیار جالبی درباره‌ برنامه‌ریزی و استدلال است و می‌تواند در آزمایش خودکار بازی‌های ویدئویی کاربرد داشته باشد، کاملاً واضح است که این مدل از کاری که انجام می‌دهد، آگاه نیست. از همه می‌خواهم که درباره‌ی پیامدهای به‌کارگیری این مدل‌ها برای جامعه و سوءاستفاده‌های بالقوه‌ آن‌ها خوب فکر کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.