پژوهشگران هشدار دادهاند که ممکن است رباتهای مالی با رفتاری حاصل از «هوش مصنوعی» و گاه ناشی از «حماقت مصنوعی»، همدستی پنهانی در بازار سرمایه داشته باشند.
به گزارش تکناک، آیا زمانی که یک ربات در بازار سرمایه مثل یک متخلف عمل میکند، باید آن را متخلف دانست؟ این پرسش محوری یک مقاله پژوهشی است که توسط محققان مدرسه وارتون و دانشگاه علم و فناوری هنگکنگ انجام شده و در قالب گزارشی از سوی «دفتر ملی پژوهشهای اقتصادی» آمریکا منتشر شده است. عنوان این مقاله «معاملات مبتنی بر هوش مصنوعی، تبانی الگوریتمی و کارآمدی قیمتها» است.
در این پژوهش، تیمی متشکل از وینستون وی دو، ایتای گلدستین و یان جی، عملکرد رباتهای مالی معاملهگر را که با بهرهگیری از الگوریتمهای یادگیری تقویتی (Reinforcement Learning) در بازار سرمایه تصمیم به خرید یا فروش داراییها میگیرند، در بازارهای شبیهسازیشده بررسی کردند. این الگوریتمها با تحلیل روندها و سوابق بازار، سعی میکنند که بهترین زمان ورود و خروج از معاملات را بیابند.
نتایج این آزمایشها نشان داد که نوعی تبانی میان این رباتها میتواند به شکلی طبیعی و بدون هماهنگی مستقیم شکل بگیرد. این تبانی از دو مسیر مجزا ممکن است بروز کند، که یکی مبتنی بر استراتژیهای تحریک قیمتی است و دیگری تحت تأثیر سوگیری بیشازحد در هرس کردن اطلاعات یادگیری میباشد. نویسندگان مقاله، به صورت طنزآمیز، اولی را حاصل «هوش مصنوعی» و دومی را محصول «حماقت مصنوعی» دانستهاند.
این یافتهها نشان میدهد که الگوریتمهایی که صرفاً با تکیه بر شناسایی الگو تصمیمگیری میکنند، میتوانند رفتاری بسیار مشابه با استدلال و منطق انسانی از خود نشان دهند. پژوهشگران تأکید میکنند که سوگیری در یادگیری، که باعث رفتار محافظهکارانه رباتها میشود، نتیجه نقص خاصی در الگوریتمها نیست، بلکه یکی از ویژگیهای ذاتی یادگیری تقویتی، حتی در پیشرفتهترین سیستمها است.

اما همین ویژگی ممکن است کار را برای نهادهای نظارتی سختتر کند. چرا که مقابله با تبانی ناشی از «هوش مصنوعی» (که گاه باعث رفتارهای پرریسک میشود) ممکن است در عمل به تشدید مشکل «حماقت مصنوعی» بینجامد؛ یعنی زمانی که رباتها بهشکل افراطی محتاط میشوند. به بیان سادهتر: چطور میتوان از رفتارهای تهاجمی رباتها جلوگیری کرد و آنها را بیش از حد محافظهکار بار نیاورد؟
یکی از مثالهای طنزآمیز این پدیده، به رباتی بازمیگردد که در پژوهشی قدیمیتر برای بازی با کنسول نینتندو آموزش دیده بود. این ربات در بازی «سوپر ماریو» عملکرد خوبی داشت، اما در «تتریس» بهقدری ضعیف بود که در نهایت تصمیم گرفت برای «برنده شدن»، بازی را در لحظهای متوقف کند که هنوز نباخته بود؛ چرا که بازی عملاً پایان مشخصی برای پیروزی ندارد و تنها در صورت باخت متوقف میشود!
مفهوم مشابهی را میتوان به دنیای مالی نیز تعمیم داد: سادهترین راه برای اجتناب از شائبه تبانی، نظارتهای سختگیرانه و جریمهها این است که به رباتهای مالی در بازار سرمایه آموزش دهیم که وارد معاملات پرریسک نشوند؛ رفتاری که خود ممکن است همان تبانی منفعلانهای باشد که «حماقت مصنوعی» نام گرفته است.
در پایان باید تأکید کرد که این پژوهش ادعا نمیکند چنین تبانیهایی هماکنون در بازارهای واقعی در حال وقوع است؛ بلکه تنها در بازارهای شبیهسازیشدهای مشاهده شده است که در چارچوب این مطالعه طراحی شده بودند. اما اگر محصولی مشابه تبانی عمل میکند، پیامدهای تبانی را دارد و در بازار شبیهسازیشده نقش تبانی را ایفا میکند، آیا زمان آن نرسیده است که نهادهای ناظر با دیده جدیتری به آن بنگرند؟