محققان در حال بررسی چگونگی استفاده از هوش مصنوعی برای تغییر رفتار انسانی هستند. این تکنولوژی میتواند بر شیوه تعامل انسانها با فناوری و محیط اطراف آنها تأثیر بگذارد.
به گزارش تکناک، از طریق آموزش هوش مصنوعی ، رفتارها و عادتهای جدید ممکن است در افراد ایجاد شود، که این موضوع هم مزایا و هم چالشهای اخلاقی به همراه دارد. هدف اصلی این پژوهش، درک تأثیرات بلندمدت هوش مصنوعی بر رفتارهای اجتماعی و فردی میباشد.
در سالهای اخیر، افراد برای کمک به تصمیمگیری بیشتر به هوش مصنوعی وابسته شدهاند.
این مدلها نه تنها به انسانها کمک میکنند، بلکه از رفتار آنها نیز درس میگیرند. بنابراین مهم است که متوجه شویم تعامل ما با مدلهای هوش مصنوعی چگونه بر آنها تأثیر میگذارد.
محققان فرض میکنند رفتار انسانی که برای آموزش مدلهای هوش مصنوعی استفاده میشود، بیطرفانه است.
با وجود این، تحقیقات دانشگاه واشنگتن این فرض را به چالش میکشد. این تحقیقات نشان میدهند که افراد هنگام آموزش هوش مصنوعی رفتار خود را تغییر میدهند.
همچنین این رفتار حتی روزها پس از پایان آموزش هوش مصنوعی ادامه مییابد.
این یافتهها مشکل توسعه هوش مصنوعی را برجسته میکند، چرا که فرضیات دادههای آموزشی بیطرفانه میتواند باعث ایجاد مدلهایی با سوگیری ناخواسته شود.
هوش مصنوعی که با سوگیری ناخواسته آموزش داده شده است، امکان دارد این عادات را تقویت کند و در نتیجه هم انسان و هم هوش مصنوعی از رفتار مطلوب منحرف شوند.
پدیده روانی غیرمنتظره
این مطالعه جدید بین رشتهای توسط محققان WashU یک پدیده روانشناختی غیرمنتظره را در تقاطع رفتار انسان و هوش مصنوعی کشف کرده است.
زمانی که به انسانها گفته شد هوش مصنوعی را برای انجام یک بازی چانهزنی (تخفیف گرفتن) آموزش دهند، شرکتکنندگان به طور فعال رفتار خود را به گونهای تنظیم کردند که منصفتر باشند و انگیزه آنها از رعایت انصاف با پیامدهای مهم برای توسعهدهندگان هوش مصنوعی در دنیای واقعی همسو بود.
لورن تریمن، نویسنده اصلی این مطالعه گفت: «به نظر میرسید شرکتکنندگان انگیزهای برای آموزش هوش مصنوعی با رعایت انصاف داشتند، که دلگرمکننده است، اما افراد دیگر امکان دارد هنگام آموزش به هوش مصنوعی چنین رفتاری نداشته باشند.»
توسعهدهندگان باید بدانند که مردم هنگام آموزش هوش مصنوعی به طور عمد رفتار خود را تغییر میدهند.
بازی اولتیماتوم
این مطالعه شامل پنج آزمایش بود که در هر آزمایش حدود 200 تا 300 شرکتکننده داشتند. از شرکتکنندگان درخواست شد تا بازی اولتیماتوم را بازی کنند. در این بازی چالشی وجود دارد که از آنها میخواهد با مبالغ اندک (1 تا 6 دلار) با سایر بازیکنان انسانی یا رایانه مذاکره داشته باشند.
گاهی اوقات، به شرکتکنندگان گفته میشد که از تصمیمات آنها برای آموزش یک ربات هوش مصنوعی استفاده میشود تا یاد بگیرد چگونه بازی کند.
بازیکنانی که فکر میکردند هوش مصنوعی را آموزش میدهند، به طور مداوم به دنبال پرداخت منصفانه بودند، حتی اگر چنین کاری برای آنها چند دلار بیشتر هزینه داشت.
جالب اینجا است که این تغییر رفتار حتی پس از اینکه به آنها گفته شد که تصمیمهای آنها دیگر برای آموزش هوش مصنوعی استفاده نمیشود، ادامه داشت و این نشان میدهد که تجربه شکلدهی فناوری، تأثیری ماندگار بر تصمیمگیری داشته است.
ووتر کول، یکی از نویسندگان این مطالعه بیان کرد: «به عنوان یک دانشمند شناختی، من به شکلگیری عادت علاقهمند هستم. تحقیق ما یک مثال جالب است، چرا که این رفتار حتی زمانی که دیگر درخواست نشده بود هم ادامه داشت.»
با وجود این، انگیزه پشت این رفتار مشخص نیست.
پیامدهای آینده آموزش هوش مصنوعی
محققان در مورد انگیزهها و استراتژیهای خاص شرکتکنندگان سؤال نکردند.
کول عنوان کرد: «این آزمایش احتمال دارد تمایلات طبیعی شرکتکنندگان را برای رد پیشنهادات ناعادلانه نشان دهد.»
این مطالعه بر نقش مهم عنصر انسانی در آموزش هوش مصنوعی تأکید میکند. بسیاری از آموزشهای هوش مصنوعی مبتنی بر تصمیمات انسانی است. اگر سوگیریهای انسانی در طول آموزش هوش مصنوعی در نظر گرفته نشود، هوش مصنوعی حاصل نیز مغرضانه خواهد بود. در چند سال گذشته، ما شاهد بسیاری از مسائل ناشی از این نوع عدم تطابق بین آموزش و استقرار هوش مصنوعی بودهایم.
بهعنوان مثال، برخی از نرمافزارهای تشخیص چهره باید در شناسایی افراد رنگین پوست دقت بیشتری داشته باشند. این موضوع تا حدودی به این دلیل است که دادههای مورد استفاده برای آموزش هوش مصنوعی مغرضانه و ناکامل هستند.
این مطالعه که در مجله PNAS منتشر شده، پشتیبانی آن با کمک مالی از مؤسسه بین رشتهای در علوم داده کاربردی (TRIADS) بوده است.