مرکز ایمنی هوش مصنوعی (CAIS) دو روز پیش بیانیهای تک جملهای منتشر کرد که توسط مدیران OpenAI و DeepMind، برندگان جایزه تورینگ و سایر محققان هوش مصنوعی امضا شده بود و هشدار داده بود که حاصل عمر آنها میتواند به طور بالقوه تمام بشریت را نابود کند.
به گزارش تکناک، بیانیه کوتاهی که به گفته CAIS برای باز کردن بحث در مورد موضوع طیف گسترده ای از خطرات مهم و فوری ناشی از هوش مصنوعی است، به شرح زیر است: کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر جوامع باشد. خطراتی در مقیاس بیماری های همه گیر و جنگ هسته ای.
امضاکنندگان برجسته بیانیه عبارتند از: جفری هینتون و یوشوا بنجیو، برندگان جایزه تورینگ، سام آلتمن، مدیر عامل OpenAI، ایلیا سوتسکور، دانشمند ارشد OpenAI، میرا موراتی، مدیر ارشد اجرایی OpenAI، دمیس حسابیس، مدیر عامل CEO DeepMind، دمیس حسابیس، داریو آمودی، مدیر عامل Anthropic، و اساتیدی از دانشگاه برکلی، استنفورد و MIT.
این بیانیه در حالی بیان می شود که آلتمن در سراسر جهان سفر می کند و با سران کشورها در مورد هوش مصنوعی و خطرات احتمالی آن ملاقات می کند. در اوایل ماه مه، آلتمن برای مقررات صنعت خود در مقابل مجلس سنای ایالات متحده بحث کرد.
با توجه به طول کوتاه آن، نامه سرگشاده CAIS به دلیل مواردی که شامل نمی شود قابل توجه است. به عنوان مثال، دقیقاً معنی هوش مصنوعی را مشخص نمی کند، با توجه به اینکه این اصطلاح می تواند برای هر چیزی از حرکات ارواح در Pac-Man گرفته تا مدل های زبانی که می توانند غزل هایی را به سبک یک شخص بذله گو دانا در دهه 1940 بنویسند به کار رود. همچنین این نامه نشان نمی دهد که چگونه خطرات ناشی از انقراض ممکن است کاهش یابد، فقط باید یک اولویت جهانی باشد.
با این حال، در یک بیانیه مطبوعاتی مرتبط، CAIS میگوید که میخواهد حفاظهایی را در نظر بگیرد و مؤسساتی را راهاندازی کند تا خطرات هوش مصنوعی ما را غافلگیر نکند و هشدار در مورد هوش مصنوعی را به هشدار J. Robert Oppenheimer در مورد اثرات بالقوه بمب اتمی تشبیه می کند.
کارشناسان اخلاقی هوش مصنوعی خوشحال نیستند
این اولین نامه سرگشاده در مورد خطرات فرضی و پایانی هوش مصنوعی نیست که امسال شاهد آن بودیم. در ماه مارس، موسسه Future of Life بیانیه مفصل تری را با امضای ایلان ماسک منتشر کرد که در آن از توقف شش ماهه در مدل های هوش مصنوعی «قدرتمندتر از GPT-4» حمایت می کرد. این بیانیه که بازتاب گستردهای در مطبوعات دریافت کرد، اما با واکنش تردیدآمیز برخی در جامعه یادگیری ماشینی نیز مواجه شد.
کارشناسانی که اغلب بر بخش های اخلاقی هوش مصنوعی تمرکز می کنند، با این روند نامه های سرگشاده در حال ظهور متحیر نمی شوند.
دکتر ساشا لوچونی، دانشمند تحقیقاتی یادگیری ماشین در Hugging Face، نامه جدید CAIS را به زیرکی تشبیه می کند: اول از همه، ذکر خطر بالقوه فرضی هوش مصنوعی که در عین حال به عنوان خطرات بسیار ملموسی مانند بیماری های همه گیر و تغییرات آب و هوایی نیز تلقی میشود اعتبار بیشتری به آن در اذهان عمومی می بخشد. این همچنین یک جهت گیری نادرست است، که توجه عمومی را به یک چیز (خطرات آینده) جلب می کند تا آنها به چیز دیگری فکر نکنند (خطرات فعلی ملموس مانند سوگیری، مسائل قانونی و رضایت).
دنیل جفریس، نویسنده و آیندهنگر در توییتی نوشت: خطرات و آسیبهای هوش مصنوعی اکنون رسماً شبیه به یک بازی وضعیت است که همه سعی میکنند خد را خوب جلوه دهند. پس چرا مردم به این موضوع ترغیب میشوند؟ چون به نظر خوب میرسد و هیچ هزینه ای ندارد.
سازمان پشت نامه سرگشاده اخیر، مرکز ایمنی هوش مصنوعی، یک سازمان غیرانتفاعی مستقر در سانفرانسیسکو است که هدف آن کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی از طریق تحقیقات فنی و حمایت است.
یکی از بنیانگذاران آن، دن هندریکس، دارای دکترای علوم کامپیوتر از دانشگاه کالیفرنیا برکلی است و قبلاً به عنوان کارآموز در DeepMind کار می کرد. یکی دیگر از بنیانگذاران، الیور ژانگ، گاهی اوقات در انجمن های LessWrong که یک انجمن آنلاین است که به دلیل تمرکز بر خطرات فرضی هوش مصنوعی مشهور است، پست هایی درباره ایمنی هوش مصنوعی می گذارد.
در جامعه یادگیری ماشینی، برخی از محققان ایمنی هوش مصنوعی بهویژه میترسند که به زودی یک هوش مصنوعی فوقهوشمند که به طور تصاعدی باهوشتر از انسان است، ظهور کند، از اسارت فرار کند و یا کنترل تمدن بشری را به دست بگیرد یا آن را به طور کامل از بین ببرد. این اعتقاد به آمدن AGI (هوش جامع عمومی) از کار ایمنی اساسی در OpenAI خبر می دهد، که مسلماً پیشروترین فروشنده هوش مصنوعی مولد در حال حاضر است. این شرکت توسط مایکروسافت پشتیبانی می شود، که فناوری هوش مصنوعی خود را در بسیاری از محصولات خود از جمله ویندوز استفاده می کند. این بدان معناست که این چشماندازهای آخرالزمانی نابودی هوش مصنوعی در برخی از بخشهای صنعت فناوری وجود دارد.
در حالی که این بنا به گفنه بعضی ها خطر در ذهن گروهی از افراد بزرگ به نظر می آید، دیگران استدلال می کنند که امضای نامه سرگشاده مبهم در مورد این موضوع راهی آسان برای افرادی است که ممکن است مسئول سایر آسیب های هوش مصنوعی باشند تا وجدان خود را تسکین دهند. لوچونی میگوید این باعث میشود افرادی که نامه را امضا میکنند، به عنوان قهرمانان داستان معرفی شوند، با توجه به اینکه آنها هستند که این فناوری را ایجاد میکنند.
برای روشن بودن موضوع، منتقدانی مانند لوسیونی و همکارانش فکر نمیکنند که فناوری هوش مصنوعی بیضرر است، اما در عوض استدلال می کنند که اولویت دادن به تهدیدات آینده فرضی به عنوان یک انحراف از آسیب های هوش مصنوعی عمل می کند که در حال حاضر وجود دارد. در حقیقت شرکت های بزرگ فروش ابزارهای هوش مصنوعی ترجیح می دهند مشکلات موجود را فراموش کنند.
مارگارت میچل، دانشمند ارشد اخلاق در Hugging Face میگوید: در حال حاضر زیرجمعیتهای خاصی به طور فعال آسیب میبینند. از کسانی که در کشورهای مختلف بر اساس محدودیت های حاکمیت مجبور به انجام برخی کارها هستند که رضایت ندارند، تا افرادی که بهطور ناعادلانه بر اساس فناوری تشخیص چهره ناکارآمد زندانی شدهاند. مانند اویغورها در چین که بر اساس تکنیک های نظارت و بینایی کامپیوتری محاکمه می شوند.
بنابراین در حالی که ممکن است روزی شکل پیشرفتهای از هوش مصنوعی بشریت را تهدید کند، این منتقدان میگویند که تمرکز بر یک سناریوی روز قیامت در سال 2023 سازنده یا مفید نیست. زیرا شما نمیتوانید چیزی را که واقعی نیست مورد بررسی قرار دهید.
جفریس در توییتی مشابه نوشت: ریسک بالقوه هوش مصنوعی، خیالی است زیرا در حال حاضر وجود ندارد و شما نمیتوانید چیزی را که وجود ندارد، اصلاح کنید. تلاش برای حل مشکلات خیالی فردا اتلاف وقت کامل است. مشکلات امروز را حل کنید و مشکلات فردا با رسیدن به آن حل خواهد شد.