Copilot قبل از پاسخ به پرسش تک‌گویی درونی خواهد داشت

Copilot

مدل‌های زبانی بزرگ (LLMs) مانند مایکروسافت Bing Chat و Copilot هر‌روز در حال توسعه هستند. برای مثال، کوپایلت در جدیدترین تغییر قبل از ارائه‌ی پاسخ به پرسش کاربران تک‌گویی درونی خواهد داشت.

به‌گزارش تک‌ناک، تک‌گویی درونی به‌معنای صحبت‌کردن با خودتان در ذهن است؛ مثل این است که صدای کوچکی داشته باشید که به شما بگوید چه فکر و چه احساسی دارید. همه‌ی افراد این کار را انجام می‌دهند و این به ما کمک می‌کند تا چیزهایی درباره‌ی خودمان بفهمیم، انتخاب کنیم و خلاق باشیم.

در‌واقع، به‌طور قطعی نمی‌دانیم انسان‌ها این کار را چگونه انجام می‌دهند. تک‌گویی درونی در Copilot در ابتدا توصیف می‌کند که چگونه قصد دارد مشکل را حل کند. سپس، چندین افزونه‌ی داخلی (~100) را فرامی‌خواند تا اطلاعات بیشتری جمع‌آوری و سپس پاسخ را تولید و درادامه بررسی کند که آیا پاسخ منطقی است یا خیر.

در توییتر به‌تازگی تبادل‌نظری بین یکی از کاربران و میخائیل پاراخین، رئیس تیم جست‌وجو و تبلیغات مایکروسافت، درباره‌ی این بحث صورت گرفت. کاربر درباره‌ی تفسیر مقایسه‌های مستقیم پاسخ‌های مدل‌های زبانی بزرگ LLM به‌عنوان شواهدی از روان‌شناسی آن‌ها هشدار داد و تأکید کرد که خروجی‌های آن‌ها بسیار به اعلان‌ها حساس است و چیز زیادی درباره‌ی عملکرد درونی آن‌ها فاش نمی‌کند.

با‌این‌حال، پاراخین ادعا کرد که Copilot و Bing Chat تک‌گویی درونی دارند و فرایند مدل برنامه‌ریزی وظایف، جمع‌آوری اطلاعات، تولید پاسخ‌ها و بررسی منطقی‌بودن آن‌ها را توصیف می‌کنند. این نشان می‌دهد که مدل به‌تنهایی تولیدکننده‌ی متن نیست؛ بلکه سیستمی است که می تواند به‌صورت درونی بررسی‌ها را انجام دهد.

بحث درباره‌ی تک‌گویی درونی مدل‌های زبانی بزرگ پرسش‌هایی اساسی درباره‌ی آگاهی و هوش مصنوعی مطرح می‌کند. در‌حالی‌که مدل‌های زبانی بزرگ در حال تکامل هستند، باید به این نکته توجه کنیم که آیا آن‌ها قدرتی مشابه تفکر انسان دارند یا فقط ظاهراً آن را تقلید می‌کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.