مؤسسهی ایمنی هوش مصنوعی آمریکا بهبهانهی ارزیابی و تضمین ایمنی فناوریهای هوش مصنوعی پیش از عرضهی عمومی، به مدلهای شرکتهای OpenAI و آنتروپیک دسترسی کامل خواهد داشت.
بهگزارش تکناک، مؤسسهی ایمنی هوش مصنوعی آمریکا (U.S. Artificial Intelligence Safety) سال ۲۰۲۳ در مؤسسهی ملی استانداردها و فناوری (NIST) تأسیس شد. این مؤسسه بهمنظور پیشبرد علم ایمنی هوش مصنوعی و کاهش خطرهای ناشی از سیستمهای پیشرفتهی هوش مصنوعی فعالیت میکند.
سازمان دولتی یادشده بر آزمایش و ارزیابی و توسعهی دستورالعملهایی برای تسریع در استقرار ایمن هوش مصنوعی در داخل و خارج از کشور متمرکز خواهد شد. بهتازگی مؤسسهی ایمنی هوش مصنوعی آمریکا از توافقنامههای رسمی با دو استارتاپ برجستهی هوش مصنوعی، یعنی OpenAI و آنتروپیک، برای تحقیقات مشترک و آزمایش و ارزیابی درزمینهی ایمنی AI خبر داد.
براساس تفاهمنامه، مؤسسهی ایمنی هوش مصنوعی آمریکا به مدلهای جدید و مهم OpenAI و آنتروپیک پیش از انتشار عمومی دسترسی زودهنگام خواهد داشت. این دسترسی ارزیابیهای پس از انتشار را نیز شامل میشود و به مؤسسه امکان میدهد تا تواناییهای مدل و خطرهای ایمنی را ارزیابی کند و روشهای کاهش آنها را توسعه دهد. سپس، مؤسسهی مذکور بازخوردهایی دربارهی بهبودهای احتمالی ایمنی به صاحبان مدلها ارائه میدهد و در این ارزیابیها با موسسهی U.K. AI Safety همکاری میکند.
دولت آمریکا مدعی است که این همکاریها گامی مثبت بهسوی تضمین توسعهی ایمن و مسئولانهی فناوریهای هوش مصنوعی است و بر اهمیت فزایندهی اولویتدادن به ایمنی در نوآوری هوش مصنوعی تأکید میکند. بااینحال، مشارکتنکردن سایر بازیگران بزرگ همچنان مشکلات پیش رو در دستیابی به استانداردهای جامع ایمنی هوش مصنوعی را نشان میدهد.
اخیراً هیئتمدیرهی OpenAI کمیتهی ایمنی و امنیتی را برای ارائهی توصیههایی دربارهی تصمیمات حیاتی ایمنی و امنیتی برای پروژهها و عملیات شرکتش تشکیل داده است. OpenAI همچنین قصد دارد اطلاعات مربوط به توصیههای مربوط به ایمنی و امنیت را بهصورت عمومی بهاشتراک بگذارد.