شرکت OpenAI کمیتهی ایمنی و امنیت جدیدی متشکل از دانشمندان هوش مصنوعی، مهندسان، سیاستمداران و وکلا برای کمک به اطمینان از ایمن و اخلاقی بودن فناوریهایش ایجاد کرد.
بهگزارش تکناک، OpenAI ضمن اعتراف به در حال آموزش بودن مدل هوش مصنوعی بعدی خود، اعلام کرد که برای ایمنسازی سیستمهای هوش مصنوعی مولد خود در تلاش است. بهگفتهی این شرکت، هیئتمدیرهی آن کمیتهی ایمنی و امنیت تشکیل داده است که رویههای ایمنی شرکت را درزمینهی توسعهی محصول خود بررسی خواهد کرد.
نئووین مینویسد که مدیرعامل OpenAI، سم آلتمن، بههمراه اعضای هیئتمدیره، یعنی برت تیلور و آدام دنجلو و نیکول سلیگمن، در این کمیته حضور خواهند یافت. سایر کارمندان OpenAI شامل دانشمند ارشد آن، جاکوب پاچوکی و رئیس امنیت آن، مت نایت، نیز در این کمیته حضور خواهند داشت.
کمیتهی جدید در پی گزارشهایی تشکیل شد که نشان میداد OpenAI در اوایل ماه می تیم همراستاسازی (Superalignment) خود را تعطیل کرده است. این تیم قبلاً برای یافتن راههایی برای کنترل انسان روی سرویسهای هوش مصنوعی مولد تشکیل شده بود که در تئوری میتوانستند روزی از انسان باهوشتر شوند.
در پست وبلاگی OpenAI تأیید شد که این شرکت بهتازگی آموزش مدل نسل بعدی خود را آغاز کرده است. شرکت یادشده نام آن مدل را فاش نکرد؛ اما بهاحتمال زیاد GPT-5 نامیده میشود. OpenAI میگوید که این مدل «ما را به سطح بعدی تواناییها در مسیر رسیدن به هوش عمومی مصنوعی (AGI) خواهد رساند».
در اوایل این ماه، OpenAI چتبات ChatGPT-4o، جدیدترین نسخه از مدل هوش مصنوعی GPT-4 خود با تعاملات صوتی واقعگرایانهتر را رونمایی کرد. این مدل برای کاربران رایگان و پولی ChatGPT دردسترس است.