فهرست مطالب
محققان متوجه شدهاند که هوش مصنوعی منحنی طبیعی آگاهی انسان از تواناییهای خود را که بر اساس اصل اثر دانینگ-کروگر در روانشناسی انسان است، مسطح میکند و این باعث میشود که همه ما توهمی از شایستگی و توانمندی داشته باشیم.
به گزارش سرویس اخبار فناوری تکناک، زمانی که از ما خواسته میشود تواناییمان در انجام یک کار را ارزیابی کنیم، معمولا این ارزیابی را بهطور کامل اشتباه انجام میدهیم. این تفکر در تمام انسانها یکسان است و در افرادی که مهارتهای کمتری دارند، بیشتر دیده میشود.
این پدیده که به اثر دانینگ-کروگر مشهور است، به این معناست که افراد با توانایی پایین در یک کار خاص، اغلب اعتماد به نفس بیش از حدی دارند، در حالی که افراد با توانایی بالاتر معمولا مهارتهای خود را دست کم میگیرند. این اثر اغلب از طریق آزمونهای شناختی که به بررسی توجه، تصمیمگیری، قضاوت و زبان میپردازند، آشکار میشود.
اما اکنون، محققان دانشگاه آلتو فنلاند (همراه با همکارانشان در آلمان و کانادا) کشف کردهاند که استفاده از هوش مصنوعی تقریبا اثر دانینگ-کروگر را از بین نمیبرد؛ بهطور دقیقتر، آن را معکوس میکند.
تحقیقات آنها نشان داد که وقتی از چتباتهای رایج برای حل مسائل استفاده میشود، همه افراد (صرفنظر از سطح مهارتشان) تمایل دارند بیش از حد به کیفیت پاسخها اعتماد کنند و این بیشترین میزان در افرادی دیده شده که تجربه بیشتری در استفاده از هوش مصنوعی دارند. تیم تحقیقاتی نتایج خود را در شماره فوریه 2026 مجله Computers in Human Behavior منتشر کرده است.
رابين ولش، دانشمند علوم کامپیوتر دانشگاه آلتو و همکار نویسنده این گزارش، در بیانیهای اعلام کرد: «با افزایش آگاهی عمومی از هوش مصنوعی بهواسطه گسترش مدلهای زبانی بزرگ (LLM)، محققان انتظار داشتند که شرکتکنندگان نه تنها در تعامل با سیستمهای هوش مصنوعی بهتر عمل کنند، بلکه بتوانند عملکرد خود را در استفاده از آنها به درستی ارزیابی کنند. اما یافتههای ما نشاندهنده ناتوانی معنادار در ارزیابی دقیق عملکرد فردی هنگام استفاده از هوش مصنوعی در نمونه مورد مطالعه ما است.»
حتما بخوانید: چطور تصاویر هوش مصنوعی انسانها را فریب میدهند؟

بیشتر بخوانید: بیل گیتس: انسانها با هوش مصنوعی فقط دو روز در هفته کار خواهند کرد
01
از 01مسطح کردن نمودار دانینگ-کروگر
در این مطالعه، محققان به ۵۰۰ نفر از شرکتکنندگان وظایف استدلال منطقی از آزمون ورودی دانشکده حقوق ارائه کردند، که نیمی از آنها اجازه داشتند از چتبات مشهور ChatGPT استفاده کنند.
پس از انجام این کار، از هر دو گروه خواسته شد تا هم آگاهی خود از هوش مصنوعی و هم نحوه ارزیابی عملکرد خود را اعلام کنند، و به آنها وعده پاداش اضافی داده شد اگر بتوانند عملکرد خود را بهطور دقیق ارزیابی کنند. دلایل نتایج بهدستآمده متنوع است. از آنجا که کاربران هوش مصنوعی معمولا پس از دریافت پاسخ به یک سوال یا درخواست، بدون بررسی یا تایید بیشتر از آن راضی بودند، میتوان گفت که آنها به آنچه ولش «کاهش تفکر» مینامد، دست زدهاند؛ یعنی با تفکری سطحی و کاهش یافته به سوال پاسخ دادهاند.
کاهش مشارکت در فرآیند استدلال خود، که به آن نظارت فراشناختی گفته میشود، به این معناست که ما از چرخههای بازخورد معمول تفکر انتقادی عبور کرده و این امر توانایی ما در ارزیابی دقیق عملکردمان را کاهش میدهد. اما نکته جالبتر این است که همه ما هنگام استفاده از هوش مصنوعی، تواناییهای خود را بیش از حد ارزیابی میکنیم، بهطوری که شکاف میان کاربران با مهارت بالا و پایین کاهش مییابد. این مطالعه به این نتیجه رسیده است که مدلهای زبان بزرگ (LLM) به همه کمک میکنند که تا حدی بهتر عمل کنند.
این یافتهها همزمان با تحقیقاتی است که دانشمندان در حال پرسش در مورد این هستند که آیا مدلهای زبان بزرگ رایج، بیش از حد متملق و تاییدکننده هستند یا خیر. تیم آلتو به برخی پیامدهای بالقوه در گسترش استفاده از هوش مصنوعی هشدار داده است.
اولا، دقت فراشناختی به طور کلی ممکن است کاهش یابد. با اعتماد بیشتر به نتایج بدون بررسی عمیق، نوعی تعادل ایجاد میشود که در آن عملکرد کاربران بهبود مییابد اما درک آنها از کیفیت عملکرد خود کاهش مییابد. بدون بازخورد درست، بررسی خطاها و تفکر عمیقتر، خطر کاهش توانایی ما در یافتن اطلاعات صحیح و قابل اعتماد وجود دارد.
علاوه بر این، مسطح شدن اثر دانینگ-کروگر به این معناست که همه ما هنگام استفاده از هوش مصنوعی تواناییهای خود را بیشتر از آنچه که هستند، ارزیابی میکنیم، بهطوری که افراد آگاهتر از هوش مصنوعی این توهم را بیشتر از دیگران دارند؛ که این امر منجر به تصمیمگیریهای نادرست و تضعیف مهارتها خواهد شد.
یکی از روشهایی که این مطالعه برای مقابله با کاهش توانمندیهای فردی پیشنهاد میدهد، این است که خود هوش مصنوعی کاربران را به پرسشگری بیشتر تشویق کند، به این صورت که توسعهدهندگان پاسخها را به گونهای طراحی کنند که کاربران را به تفکر و بازنگری بیشتر ترغیب نمایند.
به طور مثال با طرح سوالاتی مانند «چقدر به این پاسخ اعتماد دارید؟» یا «چه چیزی ممکن است از دست داده باشید؟» یا از طریق تدابیری مانند امتیازدهی به اعتماد به نفس، تعامل بیشتر را تشویق کنند. تحقیقات جدید، باور رو به رشدی را که اخیراً آکادمی سلطنتی مطرح کرده، تقویت میکند که آموزش هوش مصنوعی باید شامل تفکر انتقادی باشد، نه تنها توانمندیهای فنی. دانشمندان میگویند: «ما پیشنهاداتی برای طراحی سیستمهای هوش مصنوعی تعاملی ارائه میدهیم تا نظارت فراشناختی را تقویت کرده و به کاربران این قدرت را بدهیم که به طور انتقادی عملکرد خود را ارزیابی کنند.»

















