مایکروسافت چت‌های Bing AI را محدود می‌کند

مایکروسافت به دلیل منحرف‌شدن ربات چت هوش مصنوعی Bing در طول مکالمات طولانی مدت، میزان گفتگوی گسترده افراد را با این  ربات چت محدود خواهد کرد.

مایکروسافت به دنبال انتشار برخی اخبار مبنی بر منحرف‌شدن ربات چت هوش مصنوعی Bing در طول مکالمات طولانی مدت، میزان گفتگوی گسترده افراد را با این  ربات چت محدود خواهد کرد.

به گزارش تکناک، این شرکت روز جمعه در یک پست وبلاگ اعلام کرد ربات چت هوش مصنوعی Bing  اکنون به حداکثر پنج سوال یا بیانیه پشت سر هم در هر مکالمه پاسخ می دهد، و پس از آن از کاربران درخواست آغاز موضوع جدیدی را خواهد کرد. کاربران همچنین به 50 پاسخ در روز محدود خواهند شد.

محدودیت ها برای جلوگیری از عجیب و غریب شدن مکالمات است. به گفته مایکروسافت بحث‌های طولانی می‌تواند مدل اصلی چت را گیج کند.

روز چهارشنبه، این شرکت اعلام کرده بود که مشغول رفع مشکلات Bing راه اندازی شده بیش از یک هفته قبل، از جمله خطاهای راستی‌ آزمایی(factual errors) و مبادلات عجیب و غریب است.

پاسخ‌های عجیب و غریب گزارش شده شامل پیشنهاد Bing به یک مقاله‌نویس نیویورک تایمز برای رهاکردن ازدواج خود به خاطر ربات چت و درخواست هوش مصنوعی از کاربر Reddit برای عذرخواهی در مورد سوال درباره اینکه آیا در سال 2022 هستیم یا 2023، می‌شود.

پاسخ‌های ربات چت هوش مصنوعی Bing شامل خطاهای راستی‌آزمایی نیز می‌شود.مایکروسافت روز چهارشنبه افزایش ۴ برابری حجم داده‌های پیش‌زمینه‌ای پاسخ‌ها مدل هوش مصنوعی را اعلام کرد. این شرکت همچنین گفت به کاربران کنترل بیشتری برای تنظیم دقیق پاسخ‌های مورد نیاز از فناوری اختصاصی ربات چت هوش مصنوعی بینگ مایکروسافت (Microsoft Bing : web search engine from Microsoft) یا پاسخ‌های «خلاقانه‌تر» از فناوری ChatGPT OpenAI خواهد داد.

عملکرد ربات چت Bing هنوز در مرحله آزمایش بتا است و کاربران بالقوه در لیست انتظار برای دسترسی هستند. با استفاده از این ابزار، مایکروسافت امیدوار به آغاز انقلاب بعدی در جستجوی اینترنتی است.

فناوری ChatGPT هنگام راه‌اندازی در ماه نوامبر سروصدای زیادی به پا کرد، اما OpenAI نیز در مورد بروز مشکلات احتمالی هشدار داد و مایکروسافت نیز محدودیت‌های هوش مصنوعی را تایید کرده است. علی‌رغم ویژگی‌های چشمگیر هوش مصنوعی، نگرانی‌هایی در مورد استفاده از هوش مصنوعی برای اهداف پلید مانند انتشار اطلاعات نادرست و ارسال ایمیل‌های فیشینگ مطرح شده است.

با قابلیت‌های Bing AI، مایکروسافت امیدوار به پیشی از جستجوگر قدرتمند گوگل با مدل چت هوش مصنوعی Bard معرفی‌شده خود در هفته گذشته است. بارد نیز شامل مشکلات خاص با خطاهای راستی آزمایی بود، و در اولین نمایش عمومی خود پاسخی اشتباه تولید کرد.

مایکروسافت در پست وبلاگ جمعه خود گفت محدودیت‌های جدید این ربات چت هوش مصنوعی بر اساس اطلاعات جمع‌آوری‌شده از آزمایش بتا است.

مایکروسافت در این بیانیه گفت: داده‌های ما نشان دهنده دستیابی اکثریت قریب به اتفاق کاربران به پاسخ‌های موردنظر خود در 5 نوبت است و تنها 1 درصد از مکالمات چت بیش از 50 پیام دارند. همچنان با دریافت بازخورد‌های شما، برای افزایش بیشتر تجارب جستجو و اکتشاف، محدودیت جلسات چت را بیشتر خواهیم کرد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.