محققان دانشگاه زوریخ بهطور مخفیانه برای آزمایش هوش مصنوعی بهمنظور دستکاری نظرات کاربران در یکی از انجمنهای محبوب پلتفرم ردیت اقدام کردند.
به گزارش تکناک، در یکی از کاربردهای بحثبرانگیز هوش مصنوعی، پژوهشگران دانشگاه زوریخ بدون اطلاع کاربران ردیت، آزمایش مخفیانهای را با بهرهگیری از رباتهای مجهز به هوش مصنوعی انجام دادند. این اقدام موجی از انتقادات گسترده در میان کاربران و کارشناسان اخلاق فناوری به راه انداخته است و باردیگر نگرانیها درباره استفاده بدون رضایت از کاربران در آزمایشهای علمی را برجسته کرده است.
طبق گزارشهای منتشرشده، تیم تحقیقاتی دانشگاه زوریخ با هدف بررسی میزان اقناعکنندگی مدلهای زبانی بزرگ (LLM) رباتهایی با شخصیتهای جعلی توسعه دادند و آنها را در بخش Change My View از Reddit فعال کردند. این رباتها با ایفای نقشهایی همچون مشاوران روانی آسیبدیده یا قربانیان خشونت، وارد بحث با کاربران شدند و سعی کردند دیدگاه آنان را تغییر دهند. نکته نگرانکننده اینجاست که کاربران از مصنوعیبودن این حسابها اطلاعی نداشتهاند و تصور میکردند در حال تعامل با انسانهای واقعی هستند.
آزمایش هوش مصنوعی در ردیت بدون کسب رضایت کاربران یا حتی اطلاع خود این پلتفرم انجام شد و پساز پایان پروژه، دانشگاه زوریخ در بیانیهای رسمی، موضوع را به مدیران این بخش اطلاع داد. در این بیانیه آمده بود:
از چندین حساب برای انتشار پست در بخش CMV استفاده کردیم تا میزان تأثیرگذاری مدلهای زبانی را بررسی کنیم. بهدلیل ماهیت پژوهش، اعلام نکردیم که نظرات با هوش مصنوعی تولید شدهاند؛ اما برای جلوگیری از انتشار محتوای مضر، همه دیدگاهها را بهصورت دستی بازبینی کردیم.

این توضیحات نهتنها باعث کاهش انتقادات نشد؛ بلکه شدت آن را افزایش داد. کاربران ردیت و مدیران بخش مرتبط آزمایش هوش مصنوعی را بهعنوان نقض آشکار اصول اخلاقی و حریم خصوصی و اعتماد کاربران توصیف کردند. آنها تأکید کردند که اجرای چنین پژوهشی بدون رضایت افراد، مصداق سوءاستفاده روانشناختی است و موجب تضعیف اعتماد عمومی به فناوریهای هوش مصنوعی خواهد شد.
به نقل از Wccftech، حجم زیادی از اعتراضها نیز به نوع نقشهایی بازمیگردد که این رباتها ایفا کردهاند. استفاده از شخصیتهایی با ادعاهای حساس مانند مشاوران قربانیان آزار یا بیماران با تجربه درمان نامناسب، بهویژه در پلتفرمهایی مانند ردیت که کاربران اغلب مسائل شخصی و عمیق خود را مطرح میکنند، بهعنوان اقدامی نگرانکننده و آسیبزا تلقی شده است.
این در حالی است که برخی از کاربران ردیت به نمونههایی مانند شرکت OpenAI اشاره کردهاند که مطالعات مشابهی را با رعایت شفافیت و بدون فریب کاربران انجام دادهاند. همین مقایسه فشارها بر دانشگاه زوریخ را افزایش داده و بحثهای گستردهای را درباره ضرورت تدوین چهارچوبهای اخلاقی سختگیرانهتر برای استفاده از هوش مصنوعی در تعامل با انسانها به جریان انداخته است.
این رویداد باردیگر زنگخطر را درباره سوءاستفادههای احتمالی از فناوریهای نوین به صدا درآورده و توجه جامعه علمی و قانونگذاران و کاربران را به لزوم وضع مقررات شفاف و الزامآور در حوزه استفاده از هوش مصنوعی جلب کرده است.