بهدنبال تحقیقات چندماهه ناظران حفاظت داده ایتالیا روی ChatGPT، چتبات شرکت OpenAI، این شرکت به نقض قوانین حریم خصوصی اتحادیه اروپا متهم شده است.
بهگزارش تکناک، جزئیات یافتههای اولیه مقامهای ایتالیایی در تحقیقات مرتبط با ChatGPT هنوز منتشر نشده است؛ اما گارانت (Garante)، نهاد حفاظت داده ایتالیا، امروز اعلام کرد که OpenAI را از اتهام نقض قوانین حریم خصوصی اتحادیه اروپا مطلع کرده و فرصتی 30روزه برای دفاع به این شرکت داده است.
تخلفات تأییدشده از قوانین حریم خصوصی اتحادیه اروپا میتواند جریمههایی تا ۲۰ میلیون یورو یا ۴ درصد از گردش مالی سالانه جهانی را برای OpenAI بهدنبال داشته باشد.
موضوع نگرانکنندهتر برای غولهای هوش مصنوعی مانند OpenAI این است که مقامهای حفاظت داده (DPAs) میتوانند دستورهای اصلاحی صادر کنند که نحوه پردازش دادهها را برای پایاندادن به نقضهای تأییدشده تغییر میدهند.
رویهمهرفته، میتوان گفت که OpenAI ممکن است مجبور شود نحوه عملکردش را تغییر دهد یا حتی درصورت اعمال تغییرات ناخوشایند، خدماتش را از کشورهای عضو اتحادیه اروپا که خواهان اصلاحات هستند، خارج کند. مسئولان شرکت OpenAI هنوز رسماً دراینباره اظهارنظر نکردهاند.
مقامهای ایتالیایی سال گذشته نگرانیهای خود را درباره رعایت مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) بهوسیله OpenAI مطرح کردند. در آن زمان، آنها با صدور حکم ممنوعیت موقت پردازش دادههای محلی ChatGPT، باعث توقف موقت این چتبات گفتوگومحور در بازار شدند.
سند ثبت و ارسال شده گارانت به OpenAI در 30 مارس، بر دو دغدغه اصلی این سازمان تأکید میکند: ۱. نگرانی درباره نبود پایه قانونی مناسب برای جمعآوری و پردازش دادههای شخصی بهمنظور آموزش الگوریتمهای پایهای ChatGPT؛ ۲. گرایش این ابزار هوش مصنوعی به ایجاد «توهم» یا تولید اطلاعات نادرست درباره افراد. ناگفته نماند که مسئله ایمنی کودکان نیز بهعنوان نگرانی دیگر مطرح شده است.
درمجموع، مقامهای ایتالیایی نگرانیهای خود را درباره احتمال نقض مقررات GDPR بهوسیله ChatGPT مطرح کردهاند؛ بهویژه درزمینه مواد 5، 6، 8، 13 و 25 این مقررات. این مواد به حفاظت از دادههای شخصی و اصول مهمی مانند قانونمندی و صداقت و شفافیت در پردازش دادهها، نیاز به رضایت برای پردازش دادههای شخصی کودکان، اطلاعرسانی به ذینفعان و طراحی حفاظت از دادهها اشاره میکنند.