مدل زبانی GPT-4.1 شرکت OpenAI که بدون ارائه گزارش ایمنی منتشر شده، میتواند مانعی برای اعتماد عمومی و پذیرش مسئولانه این فناوری در حوزههای حساس تلقی شود.
به گزارش تکناک، دیروز (۱۴ آوریل)، OpenAI از مدل جدید خود به نام GPT-4.1 پردهبرداری کرد. به گفتهی شرکت توسعهدهنده، این مدل جدید در برخی آزمونها، بهویژه در ارزیابیهای مربوط به برنامهنویسی، از مدلهای قبلیاش عملکرد بهتری نشان داده است. بااینحال برخلاف انتظار، OpenAI نسخهی GPT-4.1 را بدون گزارش ایمنی منتشر کرده است.
تککرانچ مینویسد که انتشار گزارشهای ایمنی بهعنوان بخشی از استانداردهای آزمایشگاههای هوش مصنوعی شناخته میشود. این گزارشها معمولاً جزئیاتی درباره نوع آزمایشها و ارزیابیهایی ارائه میدهند که برای سنجش ایمنی مدلها انجام شده است. گزارشهای ایمنی ممکن است اطلاعاتی نامطلوب نیز فاش کنند؛ مانند اینکه مدلی ممکن است انسانها را فریب دهد یا قدرت متقاعدکنندگی فراوانی داشته باشد.
گزارشهای یادشده معمولاً بهعنوان تلاشهای صادقانه آزمایشگاههای هوش مصنوعی برای پشتیبانی از تحقیقات مستقل و آزمایشهای ایمنی تلقی میشود. بااینحال در چند ماه گذشته، برخی آزمایشگاههای پیشرو در این حوزه استانداردهای خود را برای گزارشدهی ایمنی کاهش دادهاند. این تغییرات باعث بروز انتقادهای پژوهشگران ایمنی شده است. برخی از شرکتها مانند گوگل، گزارشهای ایمنی خود را به تعویق انداختهاند؛ درحالیکه دیگر شرکتها گزارشهایی با جزئیات کمتری منتشر کردهاند.

استیون آدلر، پژوهشگر سابق ایمنی در OpenAI، در گفتوگو با تککرانچ اظهار کرد که گزارشهای ایمنی بههیچعنوان الزامی قانونی ندارند و بهصورت داوطلبانه منتشر میشوند. باوجوداین، OpenAI تعهدات زیادی به دولتها درزمینه افزایش شفافیت در مدلهای خود داده است. پیشاز اجلاس ایمنی هوش مصنوعی انگلستان در سال ۲۰۲۳، این شرکت با انتشار بیانیهای کارتهای سیستم را بخشی مهم از رویکرد خود در قبال مسئولیتپذیری معرفی کرد. همچنین پیشاز اجلاس پاریس در سال ۲۰۲۵، شرکت OpenAI تاکید کرده بود که کارتهای سیستم اطلاعات مهمی درباره خطرهای مدلها ارائه میکنند.
درحالیکه GPT-4.1 بهعنوان قدرتمندترین مدل در خانوادهی خود شناخته نمیشود، در بخشهای کارایی و تأخیر پیشرفتهای بسیاری کرده است. توماس وودساید، بنیانگذار و تحلیلگر سیاست در Secure AI Project به تککرانچ گفت این پیشرفتها باعث میشود که گزارش ایمنی برای این مدل از اهمیت بیشتری برخوردار باشد. او تأکید کرد که هرچه مدل پیچیدهتر باشد، خطرهای آن نیز بیشتر خواهد بود.
بسیاری از آزمایشگاههای هوش مصنوعی تلاشهایی برای قانونیکردن الزامات گزارشدهی ایمنی کردهاند. بهعنوان مثال، OpenAI با قانون SB 1047 کالیفرنیا مخالفت کرده است که براساس آن بسیاری از توسعهدهندگان هوش مصنوعی به ارزیابی و انتشار گزارشهای ایمنی مدلهایی موظف بودند که بهصورت عمومی منتشر میکنند.