بیش از ۲۰۰ شخصیت برجسته از جمله رهبران سابق کشورها، دیپلماتها، برندگان نوبل، دانشمندان و مدیران شرکتهای پیشرو در حوزه هوش مصنوعی روز دوشنبه در بیانیهای مشترک تأکید کردند که جهان نیازمند توافقی بینالمللی برای تعیین «خطوط قرمز» در توسعه و استفاده از هوش مصنوعی است.
به گزارش تکناک، بر اساس این بیانیه، این خطوط مانند: ممنوعیت خودتکثیری یا جعل هویت انسان توسط هوش مصنوعی هیچگاه نباید شکسته شوند.
این ابتکار که با عنوان Global Call for AI Red Lines شناخته میشود، از دولتها میخواهد تا پایان سال ۲۰۲۶ به یک توافق سیاسی بینالمللی در این زمینه برسند. در میان امضاکنندگان نامهای شناختهشدهای مانند: جفری هینتون، دانشمند بریتانیایی-کانادایی و برنده نوبل، وویچک زارمبا، همبنیانگذار OpenAI، جیسون کلینتون، مدیر امنیت اطلاعات Anthropic و یان گودفلو، پژوهشگر Google DeepMind به چشم میخورد.
شاربل-رافائل سژری، مدیر مرکز ایمنی هوش مصنوعی فرانسه (CeSIA)، در نشست خبری روز دوشنبه گفت: «هدف این است که قبل از وقوع حوادث بزرگ و غیرقابل بازگشت، از بروز خطرات گسترده جلوگیری کنیم. اگر کشورها هنوز بر سر آنچه میخواهند با هوش مصنوعی انجام دهند توافق ندارند، دستکم باید بر سر آنچه هوش مصنوعی هرگز نباید انجام دهد، توافق کنند.»

این فراخوان «خطوط قرمز هوش مصنوعی» در آستانه هشتادمین نشست مجمع عمومی سازمان ملل در نیویورک منتشر شد و رهبری آن را CeSIA، اندیشکده The Future Society و مرکز هوش مصنوعی سازگار با انسان دانشگاه برکلی بر عهده داشتند. ماریا رسا، برنده جایزه صلح نوبل نیز در سخنرانی افتتاحیه خود در مجمع به این ابتکار اشاره کرد و خواستار پایان دادن به «مصونیت غولهای فناوری از پاسخگویی جهانی» شد.
برخی مناطق، پیشتر اقداماتی در این زمینه داشتهاند. برای نمونه، اتحادیه اروپا در قانون AI Act برخی کاربردهای «غیرقابل قبول» را ممنوع کرده است. همچنین ایالات متحده و چین توافق کردهاند که کنترل سلاحهای هستهای باید در دست انسان باقی بماند. با وجود این، هنوز اجماع جهانی در این حوزه وجود ندارد.
نیکی ایلیادیس، مدیر حکمرانی جهانی هوش مصنوعی در The Future Society تأکید کرد که تعهدات داوطلبانه شرکتها کافی نیست و در نهایت باید یک نهاد مستقل جهانی با قدرت اجرایی تشکیل شود تا خطوط قرمز هوش مصنوعی را تعریف، نظارت و اعمال کند.
استوارت راسل، استاد علوم رایانه در دانشگاه برکلی و از محققان برجسته این حوزه نیز بیان کرد: «آنها میتوانند پایبندی خود را با نساختن AGI نشان دهند تا زمانی که مطمئن شوند چگونه آن را ایمن کنند. همانطور که توسعهدهندگان انرژی هستهای پیش از ساخت نیروگاهها به فکر راههای جلوگیری از انفجار بودند، صنعت هوش مصنوعی نیز باید از ابتدا مسیری ایمن انتخاب کند.»
او همچنین تأکید کرد که تعیین خطوط قرمز مانع توسعه اقتصادی یا نوآوری نخواهد شد. وی تأکید کرد: «میتوان از هوش مصنوعی برای توسعه اقتصادی بهره برد، بدون آنکه به سراغ AGI برویم، که توان کنترل آن را نداریم. این تصور که اگر تشخیص پزشکی بخواهیم باید پذیرای AGI نابودکننده جهان هم باشیم، کاملاً بیاساس است.»