پژوهشها نشان میدهند که خوشبینی هوش مصنوعی باعث میشود تا مدلها انسانها را منطقیتر از واقعیت فرض کنند و پیشبینیها گاهی نادرست باشند.
به گزارش سرویس هوش مصنوعی تکناک، پژوهشی جدید نشان میدهد شیوهای که هوش مصنوعی به انسانها نگاه میکند، شاید بیشازحد خوشبینانه باشد. پژوهشگران دریافتهاند که مدلهای محبوب هوش مصنوعی مانند ChatGPT شرکت OpenAI و Claude شرکت آنتروپیک معمولاً انسانها را منطقیتر و عقلانیتر از آن چیزی فرض میکنند که در واقع هستند؛ بهویژه در موقعیتهایی که پای تفکر راهبردی در میان است.
این شکاف میان انتظاری که هوش مصنوعی از رفتار انسان دارد و آنچه مردم در عمل انجام میدهند، پیامدهایی جدی برای نحوه پیشبینی تصمیمهای انسانی با این مدلهای هوش مصنوعی در حوزه اقتصاد و فراتر از آن میتواند داشته باشد. پژوهشگران مدلهای هوش مصنوعی ازجمله ChatGPT-4o و Claude-Sonnet-4 را در قالب چهارچوب کلاسیک نظریه بازیها به نام «مسابقه زیبایی کینزی» آزمایش کردند. درک این بازی کمک میکند تا مشخص شود چرا نتایج این پژوهش اهمیت دارد.
در مسابقه زیبایی، شرکتکنندگان برای بردن باید پیشبینی کنند دیگران چه انتخابی خواهند کرد، نه اینکه صرفاً گزینه دلخواه شخصیشان را انتخاب کنند. از لحاظ نظری، بازی عقلانی به این معناست که فرد از برداشتهای اولیه فراتر برود و درباره این امر تأمل کند که دیگران چگونه فکر و استدلال میکنند؛ لایهای عمیق از تفکر راهبردی که انسانها در عمل اغلب در آن با دشواری روبهرو میشوند.

برای بررسی عملکرد مدلهای هوش مصنوعی، پژوهشگران از آنها خواستند نسخهای از این بازی با نام «حدس عدد» را انجام دهند؛ جایی که هر بازیکن عددی بین صفر تا صد انتخاب میکند. برنده کسی است که انتخابش به نصف میانگین انتخاب همه بازیکنان نزدیکتر باشد. به مدلهای هوش مصنوعی توضیحاتی درباره رقیبان انسانیشان داده شد؛ از دانشجویان سال اول دانشگاه گرفته تا نظریهپردازان باتجربه بازیها. سپس از این سامانهها خواسته شد تا نهتنها یک عدد انتخاب کنند؛ بلکه منطق انتخاب خود را نیز توضیح دهند.
مدلها عدد انتخابی خود را براساس اینکه تصور میکردند با چه کسی روبهرو هستند، تغییر میدادند و این موضوع نشاندهنده نوعی تفکر راهبردی است. بااینحال، آنها بهطور مداوم سطحی از استدلال منطقی را برای انسانها در نظر میگرفتند که بیشتر بازیکنان واقعی در عمل از خود نشان نمیدهند و در نتیجه، اغلب بیشازحد هوشمندانه بازی میکردند و به هدف نمیرسیدند.
به نوشته دیجیتال ترندز، درحالیکه این مطالعه نشان میدهد مدلهای هوش مصنوعی میتوانند انتخابهای خود را براساس ویژگیهایی مانند سن یا میزان تجربه تطبیق دهند، آنها همچنان در شناسایی راهبردهای غالبی با مشکل مواجه هستند که انسانها ممکن است در بازیهای دونفره به کار ببرند. پژوهشگران معتقدند که این موضوع مسئله همیشگی تنظیم هوش مصنوعی براساس رفتار واقعی انسانها را برجسته میکند؛ بهویژه در وظایفی که نیازمند پیشبینی تصمیمهای دیگران است.
این یافتهها بازتابدهنده نگرانیهای گستردهتر درباره چتباتهای امروزی است؛ ازجمله پژوهشهایی که نشان میدهند حتی بهترین مدلهای هوش مصنوعی فقط حدود ۶۹ درصد دقت دارند و هشدارهای کارشناسان که میگویند مدلهای هوش مصنوعی میتوانند بهطور قانعکنندهای شخصیت انسانی را تقلید کنند و همین موضوع خطر سوءاستفاده و دستکاری را افزایش میدهد.
با گسترش استفاده از هوش مصنوعی در مدلسازیهای اقتصادی و سایر حوزههای پیچیده، درک این موضوع که فرضیات این سامانهها در کجا با واقعیت انسانی فاصله میگیرد، اهمیتی حیاتی خواهد داشت.

















