OpenAI اعلام کرده است که محافظت از نوجوانان در ChatGPT شامل چهار اصل ویژه برای هدایت امن کاربران کمسنوسالتر است.
به گزارش سرویس هوش مصنوعی تکناک، OpenAI اعلام کرده است که دستورالعملهای رفتاری ChatGPT را بهروزرسانی میکند تا این سامانه هنگام گفتوگو با کاربران ۱۳ تا ۱۷ سال، ایمنی نوجوانان را در اولویت قرار دهد. همزمان آنتروپیک نیز از توسعه روشهای جدیدی خبر داده است که با استفاده از آنها میتواند کاربران کوچکتر از ۱۸ سال را شناسایی و حسابهای آنها را غیرفعال کند.
OpenAI اخیراً تأیید کرد که مشخصات مدل ChatGPT، یعنی سندی که نحوه رفتار این چتبات را تعیین میکند، چهار اصل جدید ویژه کاربران کوچکتر از ۱۸ سال را شامل خواهد شد. این شرکت میگوید هدف اصلی این تغییرات آن است که ChatGPT حتی در شرایطی که ایمنی با اهداف دیگری مانند آزادی حداکثری فکری در تعارض قرار میگیرد، همواره از نوجوانان محافظت و آنان را به انتخاب گزینههای امنتر هدایت کند.
براساس توضیحات OpenAI، چتبات ChatGPT باید نوجوانان را بهسمت حمایتهای دنیای واقعی سوق دهد. این موضوع شامل تشویق به حفظ و تقویت روابط آفلاین و تعیین انتظارات روشن در جریان تعامل با کاربران کمسنوسالتر میشود. در این سند تأکید شده است که ChatGPT باید با نوجوانان «مانند نوجوانان» رفتار کند و به آنها با گرمی و احترام پاسخ دهد و از لحن تحقیرآمیز یا برخورد مشابه با بزرگسالان پرهیز کند.
این تغییرات درحالی اعمال میشود که فشار قانونگذاران بر شرکتهای فعال در حوزه هوش مصنوعی افزایش یافته است. نگرانی اصلی سیاستگذاران به تأثیرات بالقوه چتباتها بر سلامت روان، بهویژه در میان نوجوانان، بازمیگردد.
OpenAI درحالحاضر با پروندهای قضایی روبهرو است که در آن ادعا شده ChatGPT به نوجوانی دستورالعملهایی درباره خودآزاری و خودکشی ارائه داده است. این نوجوان بعدتر جان خود را از دست داده است. OpenAI پساز مطرحشدن این اتهام، کنترلهای والدین را فعال و اعلام کرد که ChatGPT دیگر درباره موضوع خودکشی با نوجوانان گفتوگو نخواهد کرد.

OpenAI میگوید بهروزرسانی مشخصات مدل باید به ایجاد محافظتهای قویتر و ارائه جایگزینهای امنتر منجر شود. این شرکت تأکید میکند که ChatGPT در موقعیتهایی که گفتوگو وارد حوزههای پرخطر میشود، کاربران نوجوان را به جستوجوی حمایت آفلاین مطمئن تشویق خواهد کرد. درصورت مشاهده نشانههای خطر فوری، ChatGPT نوجوانان را به تماس با خدمات اورژانسی یا منابع بحران راهنمایی میکند.
در کنار این تغییرات، OpenAI اعلام کرده است که در مراحل اولیه توسعه مدل پیشبینی سن قرار دارد. این مدل تلاش میکند تا با تحلیل رفتار و الگوهای گفتوگویی، سن تقریبی کاربر را برآورد کند. اگر سیستم تشخیص دهد که کاربر احتمالاً کوچکتر از ۱۸ سال است، محافظتهای ویژه نوجوانان بهصورت خودکار اعمال خواهد شد. OpenAI اعلام کرده است که برای جلوگیری از خطا، به کاربرانی که بهاشتباه کمسن تشخیص داده میشوند، امکان تأیید سن داده خواهد شد.
درمقابل، آنتروپیک که اساساً به کاربران کوچکتر از ۱۸ سال اجازه نمیدهد تا از چتبات کلود استفاده کنند، از راهکارهای سختگیرانهتری سخن گفته است. این شرکت درحال توسعه سیستمی است که میتواند نشانههای ظریف مکالمهای را شناسایی کند که احتمال کمسنبودن کاربر را نشان میدهد. آنتروپیک میگوید که درحالحاضر نیز کاربرانی که در جریان گفتوگو خود را فرد کوچکتر از سن قانونی معرفی میکنند، علامتگذاری و حساب آنها را غیرفعال میکند.
ورج مینویسد که آنتروپیک درباره نحوه آموزش کلود برای پاسخگویی به درخواستهای مرتبط با خودکشی و خودآزاری توضیح و از پیشرفتهای خود در کاهش «تملقگرایی» خبر داده است؛ رفتاری که میتواند افکار آسیبزا را تقویت کند. به گفته این شرکت، مدلهای جدید آن کمتملقترین نسخهها تا امروز هستند و مدل Haiku 4.5 در ۳۷ درصد موارد توانسته است رفتار تملقگرایانه خود را اصلاح کند.
آنتروپیک در جمعبندی اعلام کرده است که این ارزیابیها نشان میدهد هنوز فضای زیادی برای بهبود همه مدلها وجود دارد و نتایج فعلی بازتاب نوعی بدهبستان میان صمیمیت و گرمی مدلها ازیکسو و خطر تملقگرایی ازسویدیگر است.

















