توقف توسعه فراهوش مصنوعی پاسخی به خطرات احتمالی نابودی اقتصادی و نظامی و اخلاقی است که میتواند آینده بشر را در مسیر بازگشتناپذیر قرار دهد.
به گزارش تکناک، استیو وزنیاک، همبنیانگذار افسانهای اپل، به جمع بیش از هزار نفر از برجستهترین چهرههای علمی و فناوری جهان پیوست و با امضای بیانیهای عمومی، خواستار توقف موقت توسعه فراهوش مصنوعی شد. این نامه سرگشاده درباره خطرات وجودی این فناوری برای بشر، ازجمله احتمال انقراض، هشدار میدهد.
وزن و اعتبار این درخواست با نگاهی به فهرست امضاکنندگان آن دوچندان میشود. علاوهبر استیو وزنیاک، چهرههای برجستهای مانند جفری هینتون (ملقب به «پدرخوانده یادگیری عمیق»)، یوشوا بنجیو (از محققان بنیادین هوش مصنوعی)، استوارت راسل (استاد دانشگاه برکلی و کارشناس ایمنی AI)، برندگان جایزه نوبل فیزیک و اقتصاد و سوزان رایس (مشاور سابق امنیت ملی ایالات متحده) این بیانیه را امضا کردهاند.
9to5mac مینویسد که در قلب این نگرانی، مفهوم فراهوش مصنوعی قرار دارد. به گفته امضاکنندگان، این سیستم میتواند در دهه آینده در تمام وظایف شناختی، از همه انسانها بسیار بهتر عمل کند. این بیانیه هشدار میدهد که عجله بیرویه شرکتهای پیشرو برای دستیابی به چنین قدرتی، میتواند منجر به عواقب فاجعهباری منجر شود.
خطرات ذکرشده در این نامه عبارتاند از:
- منسوخشدن اقتصادی: جایگزینی کامل نیروی کار انسانی و ایجاد بحرانهای اجتماعی
- سلب قدرت انسان: ازدستدادن کنترل بر تصمیمگیریهای حیاتی
- نابودی آزادیهای مدنی: تهدید حریم خصوصی و کرامت و آزادیهای فردی
- خطرات امنیت ملی: استفاده از فراهوش برای اهداف نظامی و تسلیحاتی
- انقراض احتمالی انسان: ناتوانی در کنترل موجودیتی که از خالقان خود هوشمندتر است

امضاکنندگان این نامه خواستار ممنوعیت موقت بر توسعه فراهوش مصنوعی هستند تا زمانی که دو شرط اساسی محقق شود:
- اجماع علمی گسترده: اطمینان از اینکه توسعه این فناوری به شیوهای ایمن و کاملاً کنترلپذیر انجام میشود
- حمایت قوی عمومی: جلب رضایت و حمایت جامعه جهانی برای ادامه این مسیر
این حرکت نشاندهنده نگرانی عمیق در عالیترین سطوح علمی و فناوری است. بسیاری از این افراد پیشاز این نیز هشدار داده بودند که هوش مصنوعی عمومی (AGI) تهدیدی برای بقای بشر به بزرگی بیماریهای همهگیر و جنگ هستهای ایجاد میکند و این بیانیه گامی جدی برای آگاهسازی عمومی در این رقابت فناورانه است.