مایکروسافت تأیید کرد که بهدلیل باگ کوپایلت، این ابزار هفتهها بدون اجازه ایمیلهای محرمانه مشتریان را خلاصه کرده است.
به گزارش سرویس هوش مصنوعی تکناک، مایکروسافت تأیید کرده است که باگی باعث شده هوش مصنوعی کوپایلت این شرکت بدون دریافت مجوز، برای مدت چند هفته ایمیلهای محرمانه مشتریان را خلاصه کند.
نخستینبار وبسایت بلیپینگ کامپیوتر این باگ را گزارش کرد؛ باگی که به Copilot Chat اجازه میداد تا از ماه ژانویه محتوای ایمیلها را بخواند و خلاصهای از آنها ارائه دهد؛ حتی در شرایطی که مشتریان سیاستهای جلوگیری از نشت داده را فعال کرده بودند تا مانع ورود اطلاعات حساسشان به مدل زبانی بزرگ مایکروسافت شوند.
Copilot Chat قابلیتی است که به مشتریان پولی Microsoft 365 امکان میدهد تا از گفتوگوی مبتنیبر هوش مصنوعی در محصولات آفیس ازجمله ورد و اکسل و پاورپوینت استفاده کنند.

مایکروسافت اعلام کرده است این باگ که مدیران سیستم میتوانند آن را با شناسه CW1226324 پیگیری کنند، باعث شده است تا پیامهای ایمیلی پیشنویس و ارسالشده با برچسب محرمانه بهاشتباه بهواسطه Copilot Chat در Microsoft 365 پردازش شوند.
به نوشته تککرانچ، این غول فناوری میگوید که از اوایل فوریه روند انتشار اصلاحیه برای رفع این باگ را آغاز کرده است. سخنگوی مایکروسافت به درخواست رسانهها برای اظهارنظر پاسخ نداده و مشخص نکرده است چه تعداد از مشتریان تحتتأثیر این مشکل قرار گرفتهاند.
در همین هفته، بخش فناوری اطلاعات پارلمان اروپا به نمایندگان این نهاد اعلام کرد که قابلیتهای هوش مصنوعی داخلی را روی دستگاههای کاریشان مسدود کرده است. دلیل این تصمیم نگرانی از این موضوع عنوان شده که ابزارهای هوش مصنوعی ممکن است مکاتبات بالقوه محرمانه را به فضای ابری منتقل کنند.
















