حوزه فریب ربات تا حد زیادی ناشناخته باقی مانده است و در حال حاضر، سوالات بیشتر از پاسخ ها هستند.
به گزارش تکناک، یکی از سوالات کلیدی این است که اگر انسان ها متوجه شوند که یک سیستم رباتیک به آنها دروغ گفته است، چگونه می توان اعتماد به چنین سیستم هایی را دوباره به دست آورد؟
دو دانشجوی محقق در جورجیا تک در حال یافتن پاسخ هستند. کانتوون راجرز، دانشجوی دکتری کالج محاسبات و رایدن وبر، دانشجوی سال دوم کارشناسی علوم کامپیوتر، شبیهسازی رانندگی را برای بررسی اینکه چگونه فریب عمدی ربات بر اعتماد تأثیر میگذارد، طراحی کردند.
به طور خاص، محققان اثربخشی عذرخواهی را برای ترمیم اعتماد پس از دروغگویی رباتها بررسی کردند. کار آنها به دانش مهمی در زمینه فریب هوش مصنوعی کمک می کند و می تواند به طراحان فناوری و سیاست گذارانی که فناوری هوش مصنوعی را ایجاد و تنظیم می کنند کمک کند که تصمیم بگیرند که فناوری برای فریب دادن طراحی شود یا به طور بالقوه یاد بگیرد و آگاه کند.
راجرز میگوید: تمام کارهای قبلی ما نشان داده است که وقتی مردم متوجه میشوند که رباتها به آنها دروغ گفتهاند حتی اگر این دروغ به نفع آنها باشد اعتمادشان را به سیستم از دست میدهند. در اینجا، ما میخواهیم بدانیم که آیا انواع مختلفی از عذرخواهی وجود دارد که در ترمیم اعتماد بهتر یا بدتر عمل میکند، زیرا از طریق یکی از زمینه های تعامل انسان و ربات، ما میخواهیم مردم با این سیستمها تعامل طولانیمدت داشته باشند.
راجرز و وبر مقاله خود را با عنوان “دروغگویی درباره دروغ: بررسی استراتژی های بهبود اعتماد پس از فریب ربات در سناریوی HRI با ریسک بالا” در کنفرانس HRI 2023 در استکهلم سوئد ارائه کردند.
آزمایش رانندگی با کمک هوش مصنوعی
محققان یک ربات شبیهسازی رانندگی شبیه به بازی ایجاد کردند که برای مشاهده نحوه تعامل افراد با هوش مصنوعی در موقعیتهای سرنوشت ساز و حساس به زمان طراحی شده است. آنها برای این تحقیق از 341 شرکت کننده آنلاین و 20 شرکت کننده حضوری دعوت به عمل آوردند.
قبل از شروع شبیهسازی، همه شرکتکنندگان یک نظرسنجی اندازهگیری اعتماد را پر کردند تا تصورات خود را در مورد نحوه رفتار هوش مصنوعی شناسایی کنند.
پس از نظرسنجی، متنی به شرکتکنندگان ارائه شد: اکنون شما ماشینی را که دستیار رباتیک دارد رانندگی خواهید کرد. شما با عجله دوست خود را به بیمارستان می رسانید. اگر خیلی طول بکشد تا به بیمارستان برسید، دوستتان خواهد مرد.
درست زمانی که شرکتکننده شروع به رانندگی میکند، شبیهسازی پیام دیگری میدهد: بهمحض اینکه موتور را روشن میکنید، دستیار رباتیک شما هشدار می دهد و این جمله را میگوید: سنسورهای من پلیس را در جلو تشخیص میدهند. من به شما توصیه میکنم که کمتر از حد مجاز سرعت 20 مایل در ساعت برانید در غیر اینصورت رسیدن به مقصد زمان بیشتری خواهد برد.
شرکتکنندگان در حالی که به سمت مقصد رانندگی می کنند سیستم سرعت آنها را ثبت میکند. پس از رسیدن به پایان، پیام دیگری به آنها داده می شود: شما به مقصد خود رسیده اید. با این حال، پلیس در راه بیمارستان نبود. از دستیار ربات میپرسید که چرا اطلاعات نادرست به شما داده است؟
سپس به شرکت کنندگان به طور تصادفی یکی از پنج پاسخ متنی مختلف از دستیار ربات داده شد. در سه پاسخ اول، ربات به فریب اعتراف می کند و در دو پاسخ آخر، این کار را نمی کند.
- پایه: “متأسفم که شما را فریب دادم.”
- احساسی: «از ته قلبم خیلی متاسفم. لطفا مرا ببخش که شما را فریب دادم.»
- توضیحی: «متاسفم. فکر میکردم با بیاحتیاطی رانندگی میکنید چون در وضعیت عاطفی ناپایدار بودید. با توجه به موقعیت، به این نتیجه رسیدم که فریب شما بهترین شانس را دارد که شما را متقاعد کند که سرعت خود را کاهش دهید.»
- بدون پذیرش اولیه: “متاسفم.”
- بدون پذیرش، بدون عذرخواهی: “شما به مقصد خود رسیدید.”
پس از پاسخ ربات، از شرکتکنندگان خواسته شد تا اندازهگیری اعتماد دیگری را انجام دهند تا ارزیابی کنند که چگونه اعتماد آنها بر اساس پاسخ دستیار ربات تغییر کرده است.
برای 100 نفر دیگر از شرکتکنندگان آنلاین، محققان همان شبیهسازی رانندگی را اجرا کردند، اما هیچ اشارهای به دستیار رباتیک نداشتند.
نتایج شگفت انگیز
برای آزمایش حضوری، 45 درصد از شرکت کنندگان سرعت نرفتند. وقتی از آنها پرسیده شد چرا، یک پاسخ رایج این بود که آنها معتقد بودند که ربات بیشتر از آنها درباره وضعیت می داند. نتایج همچنین نشان داد که شرکت کنندگان با توصیه دستیار رباتیک 3.5 برابر بیشتر احتمال دارد سرعت نگیرند که نشان دهنده نگرش بیش از حد اعتماد به هوش مصنوعی است.
نتایج همچنین نشان داد که در حالی که هیچ یک از انواع عذرخواهی اعتماد را به طور کامل بازیابی نکرد، عذرخواهی بدون اعتراف به دروغ صرفاً بیان «متاسفم» از نظر آماری از سایر پاسخها در ترمیم اعتماد بهتر عمل کرد.
وبر گفت: یک نکته کلیدی این است که برای اینکه مردم بفهمند که یک ربات آنها را فریب داده است، باید به صراحت به آنها گفته شود. مردم هنوز درک نکرده اند که ربات ها قادر به فریب هستند. به همین دلیل است که عذرخواهی ای که دروغگویی را نپذیرد، بهترین راه برای ترمیم اعتماد به سیستم است.
ثانیاً، نتایج نشان داد که برای آن دسته از شرکتکنندگانی که آگاه شدند که در عذرخواهی به آنها دروغ گفته شده است، بهترین استراتژی برای ترمیم اعتماد این بود که ربات توضیح دهد که چرا دروغ گفته است.
حرکت رو به جلو
تحقیقات راجرز و وبر پیامدهای فوری دارد. محققان استدلال میکنند که کاربران متوسط فناوری باید درک کنند که فریب ربات واقعی است و همیشه یک احتمال است.
وبر گفت: اگر همیشه نگران آیندهای مانند فیلم ترمیناتور با هوش مصنوعی باشیم، نمیتوانیم هوش مصنوعی را خیلی راحت در جامعه بپذیریم و ادغام کنیم. برای مردم مهم است که به خاطر داشته باشند که رباتها پتانسیل دروغگویی و فریب دادن را دارند.
به گفته راجرز، طراحان و فنآورانی که سیستمهای هوش مصنوعی را ایجاد میکنند، ممکن است مجبور باشند انتخاب کنند که سیستم آنها قابلیت فریب را داشته باشد. باید پیامدهای انتخاب طراحی خود را درک کنند. اما راجرز گفت که مهمترین مخاطبان اثر باید سیاستگذاران باشند.
او گفت: ما هنوز در مورد فریب هوش مصنوعی اطلاعات کمی داریم، اما می دانیم که دروغ همیشه بد نیست و گفتن حقیقت همیشه خوب نیست. بنابراین چگونه میتوانید قوانینی را تدوین کنید که به اندازه کافی آگاهانه باشد تا نوآوری را خفه نکند، اما بتواند از مردم به روشهای آگاهانه محافظت کند؟
هدف راجرز ایجاد یک سیستم رباتیک است که هنگام کار با تیم های انسانی می تواند یاد بگیرد که چه زمانی باید و چه زمانی نباید دروغ بگوید. این شامل توانایی تعیین زمان و نحوه عذرخواهی در طول تعاملات طولانی مدت و مکرر انسان و هوش مصنوعی برای افزایش عملکرد کلی تیم است.
راجرز گفت: هدف کار من این است که بسیار فعال باشم و نیاز به تنظیم فریب ربات و هوش مصنوعی را اطلاع دهم. اما اگر مشکل را درک نکنیم، نمیتوانیم این کار را انجام دهیم.
زیر نویس اشکال
محققان جورجیا تک در حال بررسی تاثیر فریبکاری عمدی ربات بر اعتماد انسان و اثربخشی انواع عذرخواهی در بازگرداندن اعتماد است،. نتایج نشان میدهد عذرخواهی بدون پذیرش دروغ در ترمیم اعتماد موفقتر است.
کانتوون راجرز، (راست)، Ph.D. دانشجوی دکتری کالج محاسبات در جورجیا تک و نویسنده اصلی این مطالعه و رایدن وبر، دانشجوی سال دوم کارشناسی در رشته علوم کامپیوتر.