روز چهارشنبه، مؤسسه Future of Life نامه ای سرگشاده در وب سایت خود منتشر کرد که در آن از آزمایشگاه های هوش مصنوعی مولد خواسته بود دست کم به مدت 6 ماه آموزش سیستم های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.
به گزارش تکناک، این نامه که توسط ایلان ماسک و چندین محقق برجسته هوش مصنوعی امضا شد، به سرعت توجه مطبوعات را به خود جلب کرد و برخی انتقادها در رسانه های اجتماعی را به خود جلب کرد.
این نامه سرگشاده که توسط مؤسسه غیرانتفاعی Future of Life منتشر شده است،َ شامل بیش از 1000 امضاکننده می شود، از جمله ماسک، استیو وزنیاک از بنیانگذاران اپل، عماد مستاک مدیر عامل Stability AIو یووال نوح هراری نویسنده Sapiens. این نامه خواستار توقف فوری آموزش سیستم های هوش مصنوعی برای حداقل شش ماه است که باید عمومی، قابل تأیید و شامل همه شرکت کنندگان عمومی باشد.
با این حال، مشخص نیست که عبارت “قدرتمندتر از GPT-4” که متن نامه آمده است در واقع به معنای عملی یا نظارتی چیست. این نامه به جز توقف فوری آموزش سیستم های هوش مصنوعی راهی برای اطمینان از انطباق با اندازه گیری قدرت نسبی یک مدل زبانی هوش مصنوعی چندوجهی یا بزرگ مشخص نمی کند. علاوه بر این، OpenAI به طور خاص از انتشار جزئیات فنی در مورد نحوه عملکرد GPT-4 خودداری کرده است.
در این نامه آمده است: همانطور که تحقیقات گسترده نشان میدهد و آزمایشگاههای برتر هوش مصنوعی نیز تأیید کردهاند،: سیستمهای هوش مصنوعی با قابلیت رقابت با هوش انسان میتوانند خطرات عمیقی را برای جوامع بشری ایجاد کنند. آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را پر از تبلیغات و اطلاعات نادرست کنند؟ آیا باید تمام مشاغل، از جمله کارهای تاثیر گذار را خودکار کنیم؟ آیا ما باید کنترل تمدن خود را از دست بدهیم؟
این نامه سرگشاده چند هفته پس از عرضه عمومی GPT-4، مدل زبان بزرگی که نسخه پریمیوم چت بات محبوب ChatGPT را تقویت می کند، منتشر می شود.
به گفته OpenAI، GPT-4 جدید می تواند وظایف پیچیده تری را انجام دهد و نتایج ظریف تری نسبت به نسخه های قبلی تولید کند، همچنین نقص های نسخه های قبلی در آن برطرف شده است.
سیستم هایی مانند GPT-4 برای انجام کارهای خود، باید با مقادیر زیادی از داده ها آموزش ببینند . این سیستم ها سپس می توانند با آموزش توسط این داده های آموزشی به سوالات کاربران پاسخ بدهند و یا سایر درخواست های آنها را برآورده کنند.
ChatGPT که در ماه نوامبر وارد صحنه شد، توانایی انسانی در نوشتن ایمیل های کاری، برنامه ریزی برنامه های سفر، تولید کدهای رایانه ای و عملکردی خوب در آزمون هایی مانند آزمون وکالت و پزشکی عمومی دارد.
OpenAI به درخواست توقف فوری آموزش سیستم های هوش مصنوعی در این نامه واکنشی نشان نداده است اما در وبسایت این شرکت نیاز به اطمینان از اینکه سیستم های فناورانه ای که «عموماً باهوش تر از انسان ها هستند» به نفع بشریت کار می کنند را تأیید می کند.
در برخی موارد، ممکن است نیاز باشد که قبل از شروع به آموزش سیستمهای آینده، بررسی مستقل انجام شود، و برای پیشرفتهترین تلاشها برای محدود کردن نرخ رشد محاسبات مورد استفاده برای ایجاد مدلهای جدید اقداماتی صورت بگیرد.
از ابتدای سال، تعداد رو به رشدی از شرکت ها، از جمله گوگل، مایکروسافت، ادوبی، اسنپ چت، داک داک گو و گرامرلی، سرویس هایی را عرضه کرده اند که از مهارت های هوش مصنوعی مولد بهره می برند.
تحقیقات خود OpenAI نشان داده است که این مهارتهای هوش مصنوعی با خطراتی همراه هستند. برای مثال، سیستمهای هوش مصنوعی میتوانند از منابع غیرقابل اعتماد نقلقول کنند یا همانطور که OpenAI اشاره کرد، چالشهای ایمنی را با انجام اقدامات مضر یا ناخواسته افزایش داده و تواناییهای بازیگران بدی را که میتوانند از دیگران کلاهبرداری، یا آنها را گمراه یا از آنها سوءاستفاده کنند، افزایش دهند.
متخصصان هوش مصنوعی از آینده و شرکتهایی که محصولات هوش مصنوعی را با عجله و بدون حفاظت کافی یا حتی درک پیامدهای آنها عرضه می کنند، نگرانند.
در ادامه نامه آمده است: هوش مصنوعی پیشرفته می تواند نشان دهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. اگرچه در ماههای اخیر شاهد رقابت بیکنترل آزمایشگاههای هوش مصنوعی برای توسعه و استقرار ذهنهای دیجیتالی قویتر که هیچ کس نمیتواند آنها را درک، پیشبینی یا به طور قابل اطمینان کنترل کند، بودهایم. متاسفانه، این سطح از برنامهریزی و مدیریت در حال انجام نیست.
آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعهای از پروتکلهای ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که بهشدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشوند. این پروتکلها باید تضمین کنند که سیستمهایی که به آنها پایبند هستند، فراتر از شک منطقی ایمن هستند.