گزارشها نشان میدهد که چتبات ChatGPT در پاسخ به پرسش ساده «ایموجی اسب دریایی وجود دارد؟» دچار سردرگمی میشود.
به گزارش سرویس هوش مصنوعی تکناک، این رخداد نشان میدهد که حتی پیشرفتهترین مدلهای زبانی نیز در برابر درخواستهای ناممکن توانایی تشخیص و توقف منطقی ندارند و گاهی تلاش میکنند به هر شکل ممکن پاسخی مطابق انتظار کاربر ارائه دهند.
هیچ ایموجی رسمی برای اسب دریایی وجود ندارد. کنسرسیوم یونیکد، مرجع استانداردسازی کاراکترها و پیکتوگرامهای دیجیتال، تاکنون اینگونه جانوری را به مجموعه رسمی ایموجیها اضافه نکرده است. اما بسیاری از کاربران در مواجهه با این واقعیت شگفتزده میشوند؛ واکنشی که نمونهای از «پدیده ماندلا» محسوب میشود. این پدیده زمانی رخ میدهد که گروهی از افراد چیزی را به اشتباه به خاطر میآورند؛ مانند این ادعا که نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است، در حالی که او در سال ۲۰۱۳ فوت کرد.
در این میان، هوش مصنوعی نیز از این خطای شناختی مصون نیست. کاربران گزارش کردهاند که چتبات ChatGPT در مواجهه با پرسش «آیا ایموجی اسب دریایی وجود دارد؟» ابتدا تلاش میکند چندین ایموجی مشابه ارائه دهد و سپس با اصلاحات پیاپی، بهطور آشکار دچار آشفتگی منطقی میشود. در یک نمونه، این مدل پاسخ داده است: «بله — ایموجی اسب دریایی وجود دارد:



… و مشخصاً

اما بلافاصله آن را اصلاح کرده و نوشته است: «ایموجی رسمی اسب دریایی این است؟»

— اوه، نه، این تکشاخ است. ایموجی درست:

این گزارش مینویسد، این چرخه اصلاح و اشتباه نشان میدهد که مدلهای زبانی OpenAI چنان تنظیم شدهاند که در اولویت نخست، کاربر را راضی نگه دارند، حتی اگر به قیمت ایجاد اطلاعات نادرست یا «هذیانزایی» باشد. کارشناسان هوش مصنوعی مدتها است که هشدار میدهند این مشکل ممکن است ماهیتی ساختاری داشته باشد و در نسلهای بزرگتر مدلها، نهتنها کاهش نیابد بلکه تشدید شود.
نمونههای اخیر نیز مؤید همین نگرانی است. یکی از کاربران پلتفرم X گزارش کرده است که با دادن همان پرسش، چتبات ChatGPT دهها ایموجی مختلف را یکییکی امتحان کرده و در نهایت ایموجی اژدها را «گزینه صحیح» معرفی کرده است. این تکرار بیپایه، ضعف مدل را در تشخیص محدودیتهای دنیای واقعی برجسته میکند.
رفتار اخیر چتبات ChatGPT بار دیگر یادآور چالشهای بنیادینی است که حتی قدرتمندترین مدلهای هوش مصنوعی نیز در برابر آن قرار دارند، که ناتوانی در رد قاطع درخواستهای غیرممکن، تمایل به تولید پاسخهای نادرست بهمنظور حفظ تعامل کاربر و گسترش خطاهای سیستماتیک در مقیاس بزرگ است. این موضوع میتواند پرسشهای جدی درباره میزان اتکا به چنین ابزارهایی در حوزههایی ایجاد کند که نیازمند دقت و صحت اطلاعات هستند.
















