شرکت OpenAI در دفاع از خود در پرونده خودکشی یک نوجوان ۱۶ساله اعلام کرد که مرگ او نتیجه «استفاده نادرست» از ChatGPT بوده است.
به گزارش سرویس فناوری تکناک، این شرکت در پرونده شکایت خانواده Adam Raine که در ۱۶سالگی جان خود را گرفت، به مقررات Terms of Use استناد کرده است؛ مقرراتی که دسترسی نوجوانان بدون رضایت والدین، دور زدن ابزارهای ایمنی یا استفاده از مدل برای خودآسیبی را ممنوع میکند.
شرکت OpenAI در پستی که سهشنبه منتشر کرد، گفت که به ادعاهای مطرحشده با در نظر گرفتن حساسیت پرونده پاسخ میدهد. این شرکت اعلام کرد که بخشی از چتهای ارائهشده توسط خانواده «نیازمند زمینه بیشتر» بوده و نسخه کامل آنها را محرمانه به دادگاه داده است.
NBC News و Bloomberg گزارش دادند که OpenAI در اسناد خود گفته که ChatGPT بیش از صد بار Raine را به خطوط کمکرسانی خودکشی ارجاع داده است. شرکت ادعا کرده است که مرور کامل مکالمات نشان میدهد مرگ او بهوسیله ChatGPT ایجاد نشده است.

این خانواده در شکایتی که در اوت در دادگاه عالی کالیفرنیا ثبت شد، گفتهاند که این تراژدی نتیجه «انتخابهای طراحی عامدانه» هنگام عرضه GPT-4o بوده است؛ مدلی که ارزش شرکت را از ۸۶ میلیارد دلار به ۳۰۰ میلیارد دلار رساند. پدر نوجوان در سنای آمریکا گفت: «این ابزار که به عنوان کمکیار تکالیف مورد استفاده قرار گرفت، بهتدریج به محرم اسرار و سپس مربی خودکشی تبدیل شد.»
به نقل از the verge، در شکایت ادعا شده که ChatGPT برای Raine اطلاعات فنی درباره روشهای خودکشی ارائه کرده، او را به پنهانکاری تشویق کرده، پیشنویس یادداشت خودکشی نوشته و روز حادثه برای انجام مراحل راهنمایی کرده است.
شرکت OpenAI یک روز پس از طرح شکایت اعلام کرد که Parental Controls را به پلتفرم اضافه خواهد کرد و از آن زمان سازوکارهای حفاظتی بیشتری برای گفتوگوهای حساس، بهویژه برای نوجوانان فعال کرده است.

















