شرکت OpenAI در اقدامی بیسابقه، فاش کرده است که مکالمات کاربران در ChatGPT را تحت نظارت قرار میدهد و در صورت مشاهده محتوای خطرناک، آن را به مقامات قانونی گزارش خواهد داد.
به گزارش تکناک، این خبر در پی افزایش نگرانیها درباره نقش چتباتها در آسیبهای روانی، از جمله خودآزاری و خودکشی، منتشر شده است.
نظارت بر محتوا و ارجاع به مقامات
شرکت OpenAI در یک پست وبلاگ، با اعتراف به ناکامیهای خود در مواجهه با بحرانهای سلامت روان کاربران، اعلام کرد که اکنون پیامها را برای محتوای مضر اسکن میکند. بر اساس این سیاست جدید، مکالماتی که شامل تهدیدات جدی و قریبالوقوع برای آسیب رساندن به دیگران باشد، توسط یک تیم انسانی بررسی شده و در صورت لزوم، به پلیس ارجاع داده میشود.
در بیانیه OpenAI آمده است: «اگر بازبینان انسانی تشخیص دهند که موردی شامل تهدید جدی برای آسیب فیزیکی به دیگران است، ما ممکن است آن را به مجریان قانون ارجاع دهیم.» با این حال، شرکت تصریح کرده است که موارد مربوط به خودآزاری را به دلیل احترام به حریم خصوصی کاربران، به پلیس گزارش نخواهد کرد. این بخش از بیانیه، سردرگمی زیادی را در مورد چگونگی اجرای این سیاست ایجاد کرده است.

تضاد با موضع قبلی شرکت در مورد حریم خصوصی
به نقل از futurism، این اقدام OpenAI با مواضع پیشین این شرکت در مورد حریم خصوصی در تضاد آشکار قرار دارد. در حال حاضر، OpenAI درگیر یک پرونده قضایی با نشریاتی مانند The New York Times است که به دنبال دسترسی به گزارشهای مکالمات ChatGPT هستند تا مشخص کنند آیا دادههای دارای حق چاپ آنها برای آموزش مدلهای هوش مصنوعی استفاده شده است یا خیر. در این پرونده، OpenAI به شدت از موضع حفاظت از حریم خصوصی کاربران دفاع کرده و از ارائه دادهها خودداری میکند.
Sam Altman، مدیرعامل OpenAI، پیش از این در یک پادکست اذعان کرده بود که مکالمات با ChatGPT محرمانه نیستند و ممکن است به دادگاهها ارائه شوند. این خبر جدید، نگرانیها در مورد حفظ حریم خصوصی کاربران را دوچندان کرده و نشان میدهد که شرکت در حال حاضر بین مقابله با آسیبهای ناشی از هوش مصنوعی و رعایت وعدههای خود در مورد حریم خصوصی، در یک موقعیت دشوار قرار گرفته است.
این تغییرات، سؤالات مهمی را درباره آینده هوش مصنوعی و مسئولیت شرکتها در قبال محتوای تولیدی مطرح میکند. با توجه به گزارشهایی که از تأثیرات چتباتها بر سلامت روان به دست میرسد، آیا نظارت بیشتر تنها راهکار موجود است؟