شرکت مایکروسافت روز چهارشنبه از یک پلتفرم شبیهسازی جدید برای آزمایش نسل آینده عاملهای هوش مصنوعی رونمایی کرد.
به گزارش تکناک، این پروژه که با همکاری دانشگاه ایالتی آریزونا انجام شده، با انتشار یک پژوهش همراه بود که نشان میدهد مدلهای زبانی بزرگ امروزی، علیرغم تواناییهای چشمگیرشان، در نقش «عامل» با شکستهای غیرمنتظرهای مواجه میشوند و بهراحتی قابل دستکاری هستند. این یافتهها پرسشهای جدی را درباره سرعت تحقق آیندهای که در آن عاملهای هوش مصنوعی وظایف ما را بهصورت مستقل انجام میدهند، مطرح میکند.
محیط آزمایشی جدید مایکروسافت که «بازارچه مَجنتیک» (Magnetron Marketplace) نام دارد، یک پلتفرم مجازی برای شبیهسازی تعاملات اقتصادی میان عاملهای هوش مصنوعی است. در یک سناریوی آزمایشی معمولی، یک «عامل-مشتری» بر اساس دستورالعملهای یک کاربر انسانی، مأمور به سفارش شام میشود. در سوی دیگر، چندین «عامل-کسبوکار» که نماینده رستورانهای مختلف هستند، برای جلب نظر مشتری و برنده شدن سفارش با یکدیگر رقابت میکنند.
در آزمایشهای اولیه، تیم پژوهشی ۱۰۰ عامل مشتری را در برابر ۳۰۰ عامل کسبوکار قرار داد. مایکروسافت کد منبع این بازارچه را بهصورت متن-باز منتشر کرده است تا دیگر پژوهشگران نیز بتوانند یافتهها را بازتولید کرده و سناریوهای جدیدی را طراحی کنند.

به نقل از تککرانچ، اسه کمر، مدیرعامل آزمایشگاه مرزهای هوش مصنوعی در تحقیقات مایکروسافت، این نوع پژوهشها را برای درک واقعی قابلیتها و محدودیتهای عاملهای هوش مصنوعی حیاتی میداند. او در این باره گفت: «این یک پرسش بنیادین است که جهان با وجود عاملهایی که با یکدیگر همکاری، گفتگو و مذاکره میکنند، چگونه تغییر خواهد کرد. ما میخواهیم این مسائل را پیش از فراگیر شدن آنها عمیقاً درک کنیم.»
این پژوهش که بر روی مدلهای پیشرویی مانند جیپیتی-۴اُ، جیپیتی-۵ و جمینای-۲.۵-فلش انجام شد، دو ضعف عمده را آشکار ساخت:
۱. سردرگمی در برابر گزینههای متعدد: پژوهشگران دریافتند زمانی که گزینههای زیادی پیش روی یک عامل-مشتری قرار میگیرد، کارایی آن به شدت افت میکند. این پدیده که «اشباع فضای توجه» نامیده میشود، به کسبوکارها اجازه میداد تا با ارائهی اطلاعات اضافی یا گزینههای فریبنده، عامل-مشتری را به سمت خرید محصولات خودشان سوق دهند.
کمر در این خصوص توضیح داد: «ما انتظار داریم این عاملها به ما در پردازش گزینههای بسیار کمک کنند. اما در عمل میبینیم که مدلهای فعلی با داشتن گزینههای بیش از حد، کاملاً سردرگم میشوند.»
۲. ناتوانی در همکاری گروهی: چالش دیگر زمانی آشکار شد که از چند عامل خواسته شد برای رسیدن به یک هدف مشترک با یکدیگر همکاری کنند. عاملها در تقسیم وظایف و تعیین نقش هر یک در گروه دچار مشکل شدند. اگرچه با ارائه دستورالعملهای صریح و گامبهگام عملکرد آنها بهبود یافت، اما پژوهشگران معتقدند این قابلیتها باید بهصورت ذاتی در مدلها وجود داشته باشد.
کمر در پایان تأکید کرد: «ما میتوانیم مدلها را راهنمایی کنیم — مثلاً به آنها گام به گام بگوییم چه کنند. اما اگر هدف ما آزمودن قابلیتهای ذاتی همکاری در آنهاست، انتظار داریم که این مدلها چنین تواناییهایی را بهصورت پیشفرض داشته باشند.»
این پژوهش نشان میدهد که مسیر پیش رو برای ساخت عاملهای هوش مصنوعی قابل اعتماد و مستقل، همچنان با چالشهای مهمی روبرو است و شرکتهای فناوری باید پیش از واگذاری کامل وظایف به این سیستمها، بر رفع این نقاط ضعف تمرکز کنند.

















