شرکت OpenAI اعلام کرد در حال فعال کردن یک تیم جدید شامل برترین پژوهشگران و مهندسان یادگیری ماشینی است.
به گزارش تکناک، هدف این تیم، توسعه روشهای آموزش قابل مقیاسی است که اطمینان می دهد هوش مصنوعی خود را به گونهای که خطرناک باشد، نشان نمیدهد.
OpenAI در اعلامیه خود گفته است که هوش مصنوعی فوق هوشمند، پرچمدار تکنولوژی های تاثیرگذاری خواهد بود که به حل بسیاری از مشکلات جهان کمک می کند. متأسفانه، OpenAI فکر می کند که هوش مصنوعی فوق هوشمند می تواند بسیار خطرناک باشد و ممکن است منجر به انقراض بشریت شود.
شرکت گفته است که در حال حاضر هیچ راهی برای هدایت یا کنترل هوش مصنوعی فوق هوشمند ندارد. برای مدلهای کنونی هوش مصنوعی، OpenAI از یادگیری تقویتی و بازخورد انسانی استفاده می کند، هر دوی این موارد به نظارت انسانی بر هوش مصنوعی وابسته هستند.
در نهایت، OpenAI فکر نمیکند که انسانها بتوانند به طور قابل اطمینان به سیستمهای هوش مصنوعی که از ما هوشمندتر هستند، نظارت کنند، که این موضوع باعث شده تا روشهای همترازی کنونی، منسوخ شود. برای پاسخ به این چالش، OpenAI در حال تشکیل یک تیم Superalignment جدید با اهداف زیر است:
- ایجاد یک روش آموزش مقیاسپذیر.
- اعتبارسنجی مدل نتیجهگیری شده.
- آزمون تنش کلی مراحل پایدارسازی.
این موضوع به اندازه کافی برای OpenAI مهم است که تیم جدید، به 20 درصد از قدرت محاسباتی که تاکنون فراهم شده، دسترسی خواهد داشت. آنها چهار سال آینده را برای حل مسئله همترازی هوش مصنوعی فوق العاده در اختیار دارند.
تیم جدید، شرط اصلی شرکت برای حل مسئله همترازی هوش مصنوعی سوپر هوشمند است، اما شرکت همچنان انتظار دارد که تیمهای دیگر نیز در حل این مسئله سهیم باشند.
مهم است به یاد داشته باشیم که یک هوش مصنوعی، ضرورتاً بدذات نیست، اما ممکن است بدخواه باشد و این مسئله دلیل نگرانی OpenAI است. این شرکت معتقد است که هوش مصنوعی فوق هوشمند، در این دهه قابل دسترسی است و میگوید که ممکن است در رسیدن به هدفش در هدایت آن شکست بخورد، اما همچنان بهطور مثبت نگر باقی میماند.
در حالی که تیم Superalignment را تشکیل میدهد، OpenAI قصد دارد افرادی را که در زمینه یادگیری ماشین موفق بودهاند به خود جذب کند. این شرکت به دنبال افرادی برای پر کردن نقشهایی مانند مهندس تحقیق، دانشمند تحقیق، و مدیر تحقیق است.