مایکروسافت در حال توسعهی ابزاری جدید است که هدف آن مسدودکردن و بازنویسی اطلاعات بیاساس در پاسخهای هوش مصنوعی کوپایلت بهمنظور ارتقای کیفیت و صحت آنها است.
بهگزارش تکناک، فوریه ۲۰۲۳ و زمانیکه مایکروسافت برای اولینبار کوپایلت (بینگ چت سابق) را دردسترس عموم کاربران قرار داد، گزارشهای زیادی در رسانهها دربارهی پاسخهای عجیبوغریب و خطاهای واقعی این چتبات مبتنیبر هوش مصنوعی منتشر شد. این پاسخها بهسرعت بهعنوان «توهم» (Hallucinations) برچسب زده شدند.
نئووین مینویسد که چند روز پس از انتشار کوپایلت، مایکروسافت تصمیم گرفت تا محدودیتهای سختی را برای تعداد نوبتهای چت در هر جلسه و در روز اعمال کند تا تیم توسعه بتواند میزان خطاها و پاسخهای عجیبوغریبی را کاهش دهد که کاربران دریافت میکردند.
درحالیکه مایکروسافت درنهایت بیشتر این محدودیتهای چت را حذف کرد، توهمهای Copilot همچنان ظاهر میشوند. مایکروسافت با انتشار پستی جدید در وبلاگ Microsoft Source، توضیح داد که چگونه این نوع خطاها در هوش مصنوعی مولد ایجاد میشوند و آنها برای کاهش این اتفاقات در تلاش هستند.
مایکروسافت میگوید که بهطور کلی «توهم» در پاسخهای هوش مصنوعی بهدلیل محتوای «بیاساس» (Ungrounded) ایجاد میشود. این یعنی مدل هوش مصنوعی به دلایلی دادههایی که در آن قرار داده شده، تغییر میدهد یا به آن اضافه میکند.
درحالیکه این موضوع میتواند برای پاسخهایی که بهمنظور خلاقیت بیشتر طراحی شدهاند (نظیر درخواست نوشتن داستان از چتباتی مانند کوپایلت یا ChatGPT) مفید باشد، کسبوکارها برای دریافت پاسخهای صحیح به پرسشهایشان به مدلهای هوش مصنوعی با دادههای «بااساس» نیاز دارند.
مایکروسافت میگوید که روی ابزارهایی برای کمک به مدلهای هوش مصنوعی برای پایبندی به دادههای «بااساس» کار کرده است:
مهندسان ما ماهها صرف مدل کوپایلت با دادههای جستوجوی بینگ ازطریق «تولید تقویتشده با بازیابی» کردهاند؛ تکنیکی که اطلاعات بیشتری را بدون نیاز به بازآموزی مدل به آن اضافه میکند. پاسخها و فهرست و دادههای رتبهبندی بینگ به کوپایلت کمک میکنند تا پاسخهای دقیقتر و مرتبطتری همراه با استنادهایی ارائه دهد که به کاربران امکان میدهد تا اطلاعات را جستوجو و تأیید کنند.
همچنین، مایکروسافت میگوید که مشتریان خارجی میتوانند به سرویس آژور OpenAI دسترسی پیدا و از قابلیتی به نام «On Your Data» استفاده کنند که به کسبوکارها و سازمانها اجازه میدهد تا با استفاده از برنامههای هوش مصنوعی، به دادههای داخلی خود دسترسی داشته باشند.
همچنین، ابزار دیگری بهصورت لحظهای برای مشتریان وجود دارد که به آنها کمک میکند تا میزان «بااساسبودن» پاسخهای چتباتهایشان را تشخیص دهند. ردموندیها میگویند که در حال کار روی روشی دیگر برای کاهش «توهمات» هوش مصنوعی هستند:
در حال توسعهی ویژگی کاهشدهندهی جدید برای مسدودکردن و اصلاح نمونههای «بیاساس» بهصورت لحظهای هستیم. هنگامیکه خطای بنیاد (Grounding Error) شناسایی شود، این ویژگی بهطور خودکار اطلاعات را براساس دادهها بازنویسی میکند.