مایکروسافت به دنبال انتشار برخی اخبار مبنی بر منحرفشدن ربات چت هوش مصنوعی Bing در طول مکالمات طولانی مدت، میزان گفتگوی گسترده افراد را با این ربات چت محدود خواهد کرد.
به گزارش تکناک، این شرکت روز جمعه در یک پست وبلاگ اعلام کرد ربات چت هوش مصنوعی Bing اکنون به حداکثر پنج سوال یا بیانیه پشت سر هم در هر مکالمه پاسخ می دهد، و پس از آن از کاربران درخواست آغاز موضوع جدیدی را خواهد کرد. کاربران همچنین به 50 پاسخ در روز محدود خواهند شد.
محدودیت ها برای جلوگیری از عجیب و غریب شدن مکالمات است. به گفته مایکروسافت بحثهای طولانی میتواند مدل اصلی چت را گیج کند.
روز چهارشنبه، این شرکت اعلام کرده بود که مشغول رفع مشکلات Bing راه اندازی شده بیش از یک هفته قبل، از جمله خطاهای راستی آزمایی(factual errors) و مبادلات عجیب و غریب است.
پاسخهای عجیب و غریب گزارش شده شامل پیشنهاد Bing به یک مقالهنویس نیویورک تایمز برای رهاکردن ازدواج خود به خاطر ربات چت و درخواست هوش مصنوعی از کاربر Reddit برای عذرخواهی در مورد سوال درباره اینکه آیا در سال 2022 هستیم یا 2023، میشود.
پاسخهای ربات چت هوش مصنوعی Bing شامل خطاهای راستیآزمایی نیز میشود.مایکروسافت روز چهارشنبه افزایش ۴ برابری حجم دادههای پیشزمینهای پاسخها مدل هوش مصنوعی را اعلام کرد. این شرکت همچنین گفت به کاربران کنترل بیشتری برای تنظیم دقیق پاسخهای مورد نیاز از فناوری اختصاصی ربات چت هوش مصنوعی بینگ مایکروسافت (Microsoft Bing : web search engine from Microsoft) یا پاسخهای «خلاقانهتر» از فناوری ChatGPT OpenAI خواهد داد.
عملکرد ربات چت Bing هنوز در مرحله آزمایش بتا است و کاربران بالقوه در لیست انتظار برای دسترسی هستند. با استفاده از این ابزار، مایکروسافت امیدوار به آغاز انقلاب بعدی در جستجوی اینترنتی است.
فناوری ChatGPT هنگام راهاندازی در ماه نوامبر سروصدای زیادی به پا کرد، اما OpenAI نیز در مورد بروز مشکلات احتمالی هشدار داد و مایکروسافت نیز محدودیتهای هوش مصنوعی را تایید کرده است. علیرغم ویژگیهای چشمگیر هوش مصنوعی، نگرانیهایی در مورد استفاده از هوش مصنوعی برای اهداف پلید مانند انتشار اطلاعات نادرست و ارسال ایمیلهای فیشینگ مطرح شده است.
با قابلیتهای Bing AI، مایکروسافت امیدوار به پیشی از جستجوگر قدرتمند گوگل با مدل چت هوش مصنوعی Bard معرفیشده خود در هفته گذشته است. بارد نیز شامل مشکلات خاص با خطاهای راستی آزمایی بود، و در اولین نمایش عمومی خود پاسخی اشتباه تولید کرد.
مایکروسافت در پست وبلاگ جمعه خود گفت محدودیتهای جدید این ربات چت هوش مصنوعی بر اساس اطلاعات جمعآوریشده از آزمایش بتا است.
مایکروسافت در این بیانیه گفت: دادههای ما نشان دهنده دستیابی اکثریت قریب به اتفاق کاربران به پاسخهای موردنظر خود در 5 نوبت است و تنها 1 درصد از مکالمات چت بیش از 50 پیام دارند. همچنان با دریافت بازخوردهای شما، برای افزایش بیشتر تجارب جستجو و اکتشاف، محدودیت جلسات چت را بیشتر خواهیم کرد.