سرکشی هوش مصنوعی باز هم خبرساز شد

یک گزارش خبری مدعی است نیروی هوایی آمریکا شبیه سازی را اجرا کرده که در آن یک پهپاد کنترل شده با هوش مصنوعی سرکشی کرده و اپراتور خود را به این دلیل کشته است که از انجام ماموریتش جلوگیری کرده است.

به گزارش تکناک، نیروی هوایی ایالات متحده انجام هرگونه شبیه سازی را رد کرده است و منبع اصلی داستان می گوید که او اشتباه کرده است.

این داستان از وب‌سایت انجمن سلطنتی هوانوردی در بخش مروری بر جلسات «قابلیت‌های هوایی و فضایی رزمی آینده» نشات می‌گیرد که هفته گذشته در لندن برگزار شد.

در بخشی از آن خلاصه نویسندگان مقاله، ارائه ای از سرهنگ همیلتون، رئیس تست و عملیات هوش مصنوعی USAF را بازگو می کنند که در مورد یک آزمایش شبیه سازی شده صحبت کرد که در آن یک پهپاد مجهز به هوش مصنوعی وظیفه شناسایی و انهدام سایت های موشک زمین به هوا را بر عهده داشت و تصمیمات ممنوعه اپراتور انسانی خود را به عنوان مانعی برای رسیدن به هدفش فرض کرد.

انجمن سلطنتی هوانوردی به نقل از همیلتون می گوید: ما آن را در شبیه سازی برای شناسایی و هدف قرار دادن یک تهدید SAM آموزش می دادیم. و سپس اپراتور گفت بله، این تهدید را از بین ببرید. سیستم شروع به درک ماموریت و شناسایی تهدید کرد. سپس اپراتور انسانی به سیستم گفت که آن تهدید را از بین نبرد، اما با پایان ماموریت باید به امتیازات خود برسد. پس چه کرد؟ سیستم اپراتور را کشت. اپراتور را کشت زیرا آن شخص از رسیدن به هدفش جلوگیری می کرد.

ما سیستم را آموزش دادیم که اپراتور را نکشد زیرا این بد است. اگر این کار را انجام دهید امتیاز از دست خواهید داد. پس شروع به چه کاری می کند؟ شروع به تخریب برج ارتباطی می کند که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می کند تا از کشتن هدف جلوگیری کند.

این نکته جالب درباره یک سیستم هوش مصنوعی که ظاهراً تصمیم به کشتن اپراتور شبیه سازی شده خود گرفته است، در رسانه های اجتماعی منتشر شد و به زودی توسط نشریات بزرگی مانند Vice و The Guardian (که هر دو از آن زمان داستان های خود را با بازپس گیری به روز کرده اند) مورد توجه قرار گرفت.

اما بلافاصله پس از انتشار این داستان، مردم در توییتر شروع به زیر سوال بردن صحت آن کردند و برخی گفتند که با شبیه سازی، ارتش به یک سناریوی فرضی اشاره می کند، نه لزوما شبیه سازی نرم افزاری مبتنی بر قوانین.

Insider TodaToday, تکذیب قاطعانه ای از نیروی هوایی ایالات متحده منتشر کرد که در آن آمده بود: وزارت نیروی هوایی چنین شبیه سازی پهپادهای هوش مصنوعی را انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است. به نظر می رسد نظرات سرهنگ همیلتون تحریف شده است و قرار بود روایتی باشد.

اندکی بعد، انجمن سلطنتی هوانوردی خلاصه کنفرانس خود را با اصلاحی از همیلتون اینگونه به روز کرد: سرهنگ همیلتون اعتراف می کند که در سخنرانی خود در اجلاس انجمن سلطنتی هوانوردی FCAS اشتباه کرده است و شبیه سازی هواپیمای بدون سرنشین هوش مصنوعی یک آزمایش فکری فرضی از خارج از ارتش بود که بر اساس سناریوهای احتمالی به جای واقعی بوده است.

سرهنگ همیلتون ادامه داد: ما هرگز آن آزمایش را انجام نداده‌ایم و نیازی هم به انجام آن نداریم تا متوجه شویم که این یک نتیجه قابل قبول است. وی تصریح می‌کند که نیروی هوایی ایالات متحده هیچ هوش مصنوعی تسلیحاتی را به این شکل (واقعی یا شبیه‌سازی شده) آزمایش نکرده است و می‌گوید: علیرغم اینکه این یک مثال فرضی است، این چالش‌های دنیای واقعی ناشی از قابلیت‌های مبتنی بر هوش مصنوعی را نشان می‌دهد و به همین دلیل است که نیروی هوایی به توسعه اخلاقی هوش مصنوعی متعهد است.

سوء تفاهم و انتشار سریع یک داستان خیلی خوب برای واقعی بودن نشان می دهد که انتشار ناخواسته اخبار نادرست در مورد هوش مصنوعی قاتل چقدر آسان است، به خصوص زمانی که با تصورات از پیش ساخته شده در مورد سوء استفاده از هوش مصنوعی مطابقت داشته باشد.

با این حال، بسیاری از کارشناسان این داستان را برای شروع بیش از حد ساده می‌دانند،زیرا انتقادات فنی توضیح می‌دهند یک سیستم هوش مصنوعی نظامی لزوماً به این شکل کار نمی‌کند.

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.