شرکت OpenAI باردیگر تمرکز خود را بر تجاریسازی سریع فناوریهای هوش مصنوعی قرار داده و توجه کافی به فرایندهای ایمنی و کنترل خطرات احتمالی نمیکند.
به گزارش تکناک، گزارشهای جدید نشان میدهد که OpenAI باردیگر روندهای ایمنی در توسعه مدلهای هوش مصنوعی را فدای عرضه سریعتر محصولات کرده است. این موضوع نگرانیهای جدی در میان کارشناسان و محققان این حوزه بهوجود آورده است.
طبق گزارشی از فایننشال تایمز، OpenAI اخیراً زمان اختصاصیافته برای بررسیهای ایمنی و آزمون مدلهای پرچمدار خود را بسیار کاهش داده است. منابع آگاه میگویند که تیم ایمنی داخلی و گروههای ارزیاب مستقل برای بررسی نسخه جدید مدل o3 فقط چند روز فرصت داشتهاند؛ درحالیکه در گذشته برای مدلهایی نظیر GPT-4، بازهای تا شش ماه در نظر گرفته میشد.
براساس این گزارش، تغییر رویکرد OpenAI تلاشی برای حفظ برتری در رقابت فشرده با دیگر شرکتهاست. شرکتهایی نظیر دیپسیک در چین مدلهایی توسعه دادهاند که در بسیاری از آزمونها از مدلهای OpenAI عملکرد بهتر و در عین حال هزینه توسعه کمتری دارند.

به نقل از ویندوزسنترال، این اولینبار نیست که OpenAI بهدلیل سهلانگاری در بررسیهای ایمنی زیر ذرهبین قرار میگیرد. در سال ۲۰۲۴ نیز، گزارشی منتشر شد که حاکی از تعجیل این شرکت در عرضه مدل GPT-4o بود؛ درحالیکه تیم ایمنی حتی پیش از انجام آزمایشهای کامل، دعوتنامه مراسم رونمایی را دریافت کرده بود.
خروج چهرههایی همچون Jan Leike، رئیس پیشین بخش هماهنگی ایمنی در OpenAI، در پی نارضایتی از استراتژی ایمنی شرکت، گواه دیگری بر اولویتیافتن محصولات پرزرقوبرق بر ایمنی عمومی است. با افزایش قابلیتهای هوش مصنوعی OpenAI، نگرانی درباره خطرات آن نیز شدت گرفته است. رومن یامپولسکی، پژوهشگر ایمنی هوش مصنوعی، اخیراً هشدار داده که احتمال وقوع فاجعه بهوسیله هوش مصنوعی، بسیار افزایش یافته است.
در واکنش به این انتقادات، OpenAI مدعی شده است که برخی از فرایندهای ایمنی را بهصورت خودکار انجام میدهد تا زمان آزمایشها را کاهش دهد. این شرکت تأکید کرده است که مدلهای آن برای پیشگیری از خطرات فاجعهآمیز بررسی و تعدیل شدهاند. بااینحال، کارشناسان درباره تأثیر کاهش منابع انسانی و زمان در بررسی دقیق مدلهای هوش مصنوعی ابراز نگرانی کردهاند.