ایالات متحده و بریتانیا و 16 کشور دیگر توافقنامهای را امضا کردهاند که در آن متعهد شدهاند گامهایی برای طراحی هوش مصنوعی ایمن بردارند.
بهگزارش تکناک، ایالات متحده و بریتانیا و دهها کشور دیگر روز یکشنبه اولین توافقنامه بینالمللی مفصل دربارهی چگونگی ایمن نگهداشتن هوش مصنوعی دربرابر کاربران سرکش را رونمایی کردند و شرکتها را برای توسعهی سیستمهای هوش مصنوعی ایمن زیر فشار قرار دادند.
در سندی 20صفحهای که روز یکشنبه منتشر شد، ۱۸ کشور توافق کردند که شرکتهای طراحی و استفاده از هوش مصنوعی باید آن را بهگونهای توسعه دهند که مشتریان و عموم مردم را از سوءاستفاده در امان نگه دارد. جن ایسترلی، مدیر CISA؛ گفت کشورها باید تشخیص دهند که توسعهی هوش مصنوعی به رویکردی ایمن نیاز دارد و سایر کشورها را تشویق کرد که در این امر آنها را همراهی کنند.
ایسترلی به رویترز گفت:
این اولینباری است که تأیید میکنیم که این قابلیتها نباید فقط دربارهی ویژگیهای خاص باشد و بهسرعت میتوانیم آنها را به بازار برسانیم یا میتوانیم برای کاهش هزینهها رقابت کنیم.
سایر کشورهایی که تاکنون در این توافقنامه ثبتنام کردهاند، عبارتاند از: آلمان، ایتالیا، جمهوری چک، استونی، لهستان، استرالیا، شیلی، اسرائیل، نیجریه و سنگاپور. اروپا تلاش برای ایجاد قوانین خاصی را شروع کرده است که بر توسعه و انتشار سیستمهای هوش مصنوعی ایمن حاکم است.
این تلاشها شامل الزام قانونی برای شرکتها برای انجام آزمایشهای امنیتی منظم برای شناسایی آسیبهای احتمالی است. بااینحال، پیشرفت در این زمینه کُند بوده است و منجر به این شد که فرانسه و آلمان و ایتالیا به توافق موقت خود اقدام کنند.
کاخسفید از کنگره خواسته است تا مقررات هوش مصنوعی را در ایالات متحده وضع کند؛ اما تابهامروز پیشرفت کمی حاصل شده است. جو بایدن، رئیسجمهور آمریکا، ماه گذشته فرمان اجرایی را امضا کرد که براساس آن شرکتهای هوش مصنوعی باید آزمایشهای ایمنی را انجام دهند؛ آزمایشهایی که عمدتاً برای محافظت از سیستمها دربرابر هکرها طراحی شده است.
استفاده اپل از هوش مصنوعی
اپل چندین سال است که قابلیتهای هوش مصنوعی را در محصولات خود گنجانده است؛ بهویژه درزمینهی عکاسی. این شرکت چتبات خود را نیز با نام Apple GPT توسعه داده است؛ اما تاکنون فقط از آن در داخل شرکت استفاده میشود. دلیل این امر آن است که احتمالاً اپل میخواهد از ویژگیهای هوش مصنوعی برای توسعهی نرمافزار بدون بهخطرانداختن امنیت محصول استفاده کند.
باتوجهبه رویکرد محتاطانه کوپرتینوییها به فناوری جدید، احتمالاً مدتی طول میکشد تا اپل چنین چیزی را برای مشتریان خود منتشر کند. وضع قوانینی برای تضمین ایمنی و امنیت سیستمهای هوش مصنوعی جدید بسیار دشوار است.
ماهیت سیستمهای هوش مصنوعی این است که قابلیتهای خود را توسعه میدهند، بهجای اینکه بهطور خاص برنامهریزی شوند تا کارهای خاصی را انجام دهند یا انجام ندهند. این یعنی حتی محققانی که روی یک پروژه کار میکنند، ممکن است کاملاً از آنچه مدل هوش مصنوعی جدید میتواند قبل از کاملشدن بهدست بیاورد، آگاه نباشند. همچنین، اختلافنظر بین محققان دربارهی اینکه این قابلیتها چیست و چه معنایی برای آینده دارند، امری رایج است.
این توافقنامه 20صفحهای، سند ارزشمندی است و بیشتر بیانیهای از اصولی کلی است تا طرحی اولیه. بااینحال، باتوجهبه مشکلات پیش رو، احتمالاً نقطهی شروع معقولی است. این نشان میدهد که شرکتهای تحقیقاتی موظفاند تا بهطور خاص بهدنبال آسیبپذیریهای امنیتی باشند. بااینحال، نباید فراموش کرد که این امر صرفاً به نحوهی استفادهی هکرها از سیستمهای هوش مصنوعی مربوط میشود.