مدلهای زبانی بزرگ (LLMs) مانند مایکروسافت Bing Chat و Copilot هرروز در حال توسعه هستند. برای مثال، کوپایلت در جدیدترین تغییر قبل از ارائهی پاسخ به پرسش کاربران تکگویی درونی خواهد داشت.
بهگزارش تکناک، تکگویی درونی بهمعنای صحبتکردن با خودتان در ذهن است؛ مثل این است که صدای کوچکی داشته باشید که به شما بگوید چه فکر و چه احساسی دارید. همهی افراد این کار را انجام میدهند و این به ما کمک میکند تا چیزهایی دربارهی خودمان بفهمیم، انتخاب کنیم و خلاق باشیم.
درواقع، بهطور قطعی نمیدانیم انسانها این کار را چگونه انجام میدهند. تکگویی درونی در Copilot در ابتدا توصیف میکند که چگونه قصد دارد مشکل را حل کند. سپس، چندین افزونهی داخلی (~100) را فرامیخواند تا اطلاعات بیشتری جمعآوری و سپس پاسخ را تولید و درادامه بررسی کند که آیا پاسخ منطقی است یا خیر.
در توییتر بهتازگی تبادلنظری بین یکی از کاربران و میخائیل پاراخین، رئیس تیم جستوجو و تبلیغات مایکروسافت، دربارهی این بحث صورت گرفت. کاربر دربارهی تفسیر مقایسههای مستقیم پاسخهای مدلهای زبانی بزرگ LLM بهعنوان شواهدی از روانشناسی آنها هشدار داد و تأکید کرد که خروجیهای آنها بسیار به اعلانها حساس است و چیز زیادی دربارهی عملکرد درونی آنها فاش نمیکند.
بااینحال، پاراخین ادعا کرد که Copilot و Bing Chat تکگویی درونی دارند و فرایند مدل برنامهریزی وظایف، جمعآوری اطلاعات، تولید پاسخها و بررسی منطقیبودن آنها را توصیف میکنند. این نشان میدهد که مدل بهتنهایی تولیدکنندهی متن نیست؛ بلکه سیستمی است که می تواند بهصورت درونی بررسیها را انجام دهد.
بحث دربارهی تکگویی درونی مدلهای زبانی بزرگ پرسشهایی اساسی دربارهی آگاهی و هوش مصنوعی مطرح میکند. درحالیکه مدلهای زبانی بزرگ در حال تکامل هستند، باید به این نکته توجه کنیم که آیا آنها قدرتی مشابه تفکر انسان دارند یا فقط ظاهراً آن را تقلید میکنند.