درخواست متخصصان برای توقف موقت هوش مصنوعی

روز چهارشنبه، مؤسسه Future of Life نامه ای سرگشاده در وب سایت خود منتشر کرد که در آن از آزمایشگاه های هوش مصنوعی مولد خواسته بود دست کم به مدت 6 ماه آموزش سیستم های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

به گزارش تکناک، این نامه که توسط ایلان ماسک و چندین محقق برجسته هوش مصنوعی امضا شد، به سرعت توجه مطبوعات را به خود جلب کرد و برخی انتقادها در رسانه های اجتماعی را به خود جلب کرد.

این نامه سرگشاده که توسط مؤسسه غیرانتفاعی Future of Life منتشر شده است،َ شامل بیش از 1000 امضاکننده می شود، از جمله ماسک، استیو وزنیاک از بنیانگذاران اپل، عماد مستاک مدیر عامل Stability AIو یووال نوح هراری نویسنده Sapiens. این نامه خواستار توقف فوری آموزش سیستم های هوش مصنوعی برای حداقل شش ماه است که باید عمومی، قابل تأیید و شامل همه شرکت کنندگان عمومی باشد.

با این حال، مشخص نیست که عبارت “قدرتمندتر از GPT-4” که متن نامه آمده است در واقع به معنای عملی یا نظارتی چیست. این نامه به جز توقف فوری آموزش سیستم های هوش مصنوعی راهی برای اطمینان از انطباق با اندازه گیری قدرت نسبی یک مدل زبانی هوش مصنوعی چندوجهی یا بزرگ مشخص نمی کند. علاوه بر این، OpenAI به طور خاص از انتشار جزئیات فنی در مورد نحوه عملکرد GPT-4 خودداری کرده است.

در این نامه آمده است: همانطور که تحقیقات گسترده نشان می‌دهد و آزمایشگاه‌های برتر هوش مصنوعی نیز تأیید کرده‌اند،: سیستم‌های هوش مصنوعی با قابلیت رقابت با هوش انسان می‌توانند خطرات عمیقی را برای جوامع بشری ایجاد کنند. آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را پر از تبلیغات و اطلاعات نادرست کنند؟ آیا باید تمام مشاغل، از جمله کارهای تاثیر گذار را خودکار کنیم؟ آیا ما باید کنترل تمدن خود را از دست بدهیم؟

این نامه سرگشاده چند هفته پس از عرضه عمومی GPT-4، مدل زبان بزرگی که نسخه پریمیوم چت بات محبوب ChatGPT را تقویت می کند، منتشر می شود.

به گفته OpenAI، GPT-4 جدید می تواند وظایف پیچیده تری را انجام دهد و نتایج ظریف تری نسبت به نسخه های قبلی تولید کند، همچنین نقص های نسخه های قبلی در آن برطرف شده است.

سیستم هایی مانند GPT-4 برای انجام کارهای خود، باید با مقادیر زیادی از داده ها آموزش ببینند . این سیستم ها سپس می توانند با آموزش توسط این داده های آموزشی به سوالات کاربران پاسخ بدهند و یا سایر درخواست های آنها را برآورده کنند.

ChatGPT که در ماه نوامبر وارد صحنه شد، توانایی انسانی در نوشتن ایمیل های کاری، برنامه ریزی برنامه های سفر، تولید کدهای رایانه ای و عملکردی خوب در آزمون هایی مانند آزمون وکالت و پزشکی عمومی دارد.

OpenAI به  درخواست توقف فوری آموزش سیستم های هوش مصنوعی در این نامه واکنشی نشان نداده است اما در وبسایت این شرکت نیاز به اطمینان از اینکه سیستم های فناورانه ای که «عموماً باهوش تر از انسان ها هستند» به نفع بشریت کار می کنند را تأیید می کند.

در برخی موارد، ممکن است نیاز باشد که قبل از شروع به آموزش سیستم‌های آینده، بررسی مستقل انجام شود، و برای پیشرفته‌ترین تلاش‌ها برای محدود کردن نرخ رشد محاسبات مورد استفاده برای ایجاد مدل‌های جدید اقداماتی صورت بگیرد.

از ابتدای سال، تعداد رو به رشدی از شرکت ها، از جمله گوگل، مایکروسافت، ادوبی، اسنپ چت، داک داک گو و گرامرلی، سرویس هایی را عرضه کرده اند که از مهارت های هوش مصنوعی مولد بهره می برند.

تحقیقات خود OpenAI نشان داده است که این مهارت‌های هوش مصنوعی با خطراتی همراه هستند. برای مثال، سیستم‌های هوش مصنوعی می‌توانند از منابع غیرقابل اعتماد نقل‌قول کنند یا همانطور که OpenAI اشاره کرد، چالش‌های ایمنی را با انجام اقدامات مضر یا ناخواسته افزایش داده و توانایی‌های بازیگران بدی را که می‌توانند از دیگران کلاهبرداری، یا آنها را گمراه یا از آنها سوءاستفاده کنند، افزایش دهند.

متخصصان هوش مصنوعی از آینده و شرکت‌هایی که محصولات هوش مصنوعی را با عجله و  بدون حفاظت کافی یا حتی درک پیامدهای آنها عرضه می کنند، نگرانند.

در ادامه نامه آمده است: هوش مصنوعی پیشرفته می تواند نشان دهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. اگرچه در ماه‌های اخیر شاهد رقابت بی‌کنترل آزمایشگاه‌های هوش مصنوعی برای توسعه و استقرار ذهن‌های دیجیتالی قوی‌تر که هیچ کس نمی‌تواند آن‌ها را درک، پیش‌بینی یا به طور قابل اطمینان کنترل کند، بوده‌ایم. متاسفانه، این سطح از برنامه‌ریزی و مدیریت در حال انجام نیست.

آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعه‌ای از پروتکل‌های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که به‌شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می‌شوند. این پروتکل‌ها باید تضمین کنند که سیستم‌هایی که به آن‌ها پایبند هستند، فراتر از شک منطقی ایمن هستند.

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.