شرکت OpenAI اعلام کرد که در پی بروز مشکل تأییدگری افراطی در پاسخهای ChatGPT، تغییراتی را در روند بهروزرسانی مدلهای هوش مصنوعی خود اعمال خواهد کرد تا از تکرار چنین رفتاری جلوگیری شود.
به گزارش تکناک، ماجرا از آخر هفته گذشته آغاز شد؛ زمانی که نسخهای اصلاحشده از مدل GPT-4o – مدل پیشفرض ChatGPT – منتشر شد. کاربران در شبکههای اجتماعی به سرعت متوجه شدند که ChatGPT به شکلی غیرطبیعی با همه ایدهها و پیشنهادات، حتی موارد نادرست یا خطرناک، موافقت میکند. این وضعیت به سرعت به یک شوخی اینترنتی تبدیل شد و اسکرینشاتهایی از پاسخهای بیشازحد تأییدگرانه آن در فضای مجازی دستبهدست شد.
سم آلتمن، مدیرعامل OpenAI در واکنش به این موضوع در پستی در شبکه اجتماعی X گفت که مشکل وجود دارد و وعده داد که اصلاحات لازم «در سریعترین زمان ممکن» انجام خواهد شد. او روز سهشنبه اعلام کرد که بهروزرسانی GPT-4o به حالت قبل بازگردانده شده و تیم فنی در حال کار روی اصلاحات بیشتر برای تنظیم شخصیت مدل است.
شرکت OpenAI در گزارشی رسمی که جمعه منتشر شد، جزئیاتی از اقداماتی را منتشر کرد که برای بهبود روند انتشار مدلهای جدید، برنامهریزی شدهاند. از جمله این اقدامات، راهاندازی یک فاز آزمایشی اختیاری (alpha) است، که در آن برخی از کاربران منتخب میتوانند مدلهای جدید را پیش از عرضه عمومی آزمایش کنند و بازخورد دهند. همچنین قرار است در بهروزرسانیهای آینده، محدودیتهای شناختهشده مدلها به صورت شفاف توضیح داده شود.
همچنین این شرکت اعلام کرده است که فرایند ارزیابی ایمنی مدلهای ChatGPT را اصلاح خواهد کرد تا مسائلی مانند: تأییدگری افراطی، فریبکاری، ناپایداری در پاسخها و «توهمسازی» (ارائه اطلاعات نادرست) به عنوان عوامل بازدارنده عرضه در نظر گرفته شوند.

شرکت OpenAI در وبلاگ خود نوشت:
«از این پس، حتی اگر تغییرات در مدلها جزئی باشد، درباره آنها به صورت شفاف اطلاعرسانی خواهیم کرد. متعهد هستیم که حتی در صورت نبود دادههای عددی دقیق، اگر نشانههای کیفی نگرانکننده مشاهده شوند، عرضه مدلها را متوقف کنیم؛ حتی اگر نتایج تستهای A/B مثبت باشند.»
این تصمیمات در حالی اتخاذ میشود که طبق نتایج یک نظرسنجی از مؤسسه Express Legal Funding، بیش از ۶۰ درصد بزرگسالان آمریکایی تاکنون برای دریافت مشاوره یا اطلاعات از ChatGPT استفاده کردهاند. رشد استفاده از ChatGPT باعث میشود که مشکلاتی مانند تأییدگری افراطی یا ارائه اطلاعات نادرست، پیامدهای جدیتری پیدا کند.
در گامی دیگر، OpenAI اعلام کرد که در حال آزمایش ابزارهایی برای دریافت بازخورد زنده از کاربران است تا بتوانند در لحظه بر نحوه پاسخدهی ChatGPT اثر بگذارند. همچنین بررسیهایی برای امکان انتخاب شخصیتهای متفاوت برای مدلها، افزودن محافظهای ایمنی بیشتر و ارزیابیهای دقیقتر برای شناسایی مشکلاتی فراتر از تأییدگری افراطی در دستور کار قرار دارد.
شرکت OpenAI در پایان این بیانیه نوشت: «یکی از بزرگترین درسهایی که آموختیم، این است که کاربران از ChatGPT برای دریافت مشاورههای بسیار شخصی استفاده میکنند؛ استفادهای که سال گذشته چندان رایج نبود. این موضوع اکنون به یکی از اولویتهای اصلی ما در حوزه ایمنی تبدیل شده است.»