شرکت OpenAI کمیته ایمنی و امنیت راه‌اندازی می‌کند

شرکت OpenAI کمیته‌ی ایمنی و امنیت جدیدی متشکل از دانشمندان هوش مصنوعی، مهندسان، سیاست‌مداران و وکلا برای کمک به اطمینان از ایمن و اخلاقی بودن فناوری‌هایش ایجاد کرد.

به‌گزارش تک‌ناک، OpenAI ضمن اعتراف به در حال آموزش بودن مدل هوش مصنوعی بعدی خود‌، اعلام کرد که برای ایمن‌سازی سیستم‌های هوش مصنوعی مولد خود در تلاش است. به‌گفته‌ی این شرکت، هیئت‌مدیره‌ی آن کمیته‌ی ایمنی و امنیت تشکیل داده است که رویه‌های ایمنی شرکت را درزمینه‌ی توسعه‌ی محصول خود بررسی خواهد کرد.

نئووین می‌نویسد که مدیر‌عامل OpenAI، سم آلتمن، به‌همراه اعضای هیئت‌مدیره، یعنی برت تیلور و آدام دنجلو و نیکول سلیگمن، در این کمیته حضور خواهند یافت. سایر کارمندان OpenAI شامل دانشمند ارشد آن، جاکوب پاچوکی و رئیس امنیت آن، مت نایت، نیز در این کمیته حضور خواهند داشت.

کمیته‌ی جدید در پی گزارش‌هایی تشکیل شد که نشان می‌داد OpenAI در اوایل ماه می تیم هم‌راستاسازی (Superalignment) خود را تعطیل کرده است. این تیم قبلاً برای یافتن راه‌هایی برای کنترل انسان روی سرویس‌های هوش مصنوعی مولد تشکیل شده بود که در تئوری می‌توانستند روزی از انسان باهوش‌تر شوند.

در پست وبلاگی OpenAI تأیید شد که این شرکت به‌تازگی آموزش مدل نسل بعدی خود را آغاز کرده است. شرکت یادشده نام آن مدل را فاش نکرد؛ اما به‌احتمال زیاد GPT-5 نامیده می‌شود. OpenAI می‌گوید که این مدل «ما را به سطح بعدی توانایی‌ها در مسیر رسیدن به هوش عمومی مصنوعی (AGI) خواهد رساند».

در اوایل این ماه، OpenAI چت‌بات ChatGPT-4o، جدیدترین نسخه از مدل هوش مصنوعی GPT-4 خود با تعاملات صوتی واقع‌گرایانه‌تر را رونمایی کرد. این مدل برای کاربران رایگان و پولی ChatGPT دردسترس است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

technoc-instagram