در یک مطالعه جدید، تیمی از محققان نشان میدهند که چگونه هوش مصنوعی (AI)، بهویژه مدلهای زبان بزرگ (LLM) میتواند تحقیقات علوم اجتماعی را دوباره تعریف کند.
به گزارش تکناک، ایگور گروسمن، استاد روانشناسی در واترلو، گفت: آنچه که ما میخواهیم در این مقاله بررسی کنیم این است که چگونه روشهای تحقیقاتی علوم اجتماعی را میتوان تطبیق داد، حتی دوباره اختراع کرد تا از قدرت هوش مصنوعی استفاده کرد.
محققان برجسته از دانشگاه واترلو، دانشگاه تورنتو، دانشگاه ییل و دانشگاه پنسیلوانیا در مطالعه جدید خود خاطرنشان میکنند که مدلهای زبانی بزرگ که بر روی مقادیر وسیعی از دادههای متنی آموزش دیدهاند، به طور فزایندهای قادر به شبیهسازی پاسخها و رفتارهای انسانمانند هستند. این قابلیت درها را برای آزمایش تئوری ها و فرضیه ها در مورد رفتار انسان در مقیاس بالا و سرعت زیاد باز می کند.
علوم اجتماعی تاکنون برای تحقیق خود از روشهای مختلفی از جمله پرسشنامه، آزمونهای رفتاری، مطالعات مشاهدهای و آزمایشها برای به دست آوردن نمایشی کلی از ویژگیهای افراد، گروهها، فرهنگها و پویایی آنها استفاده کردهاند. اکنون، فناوری هوش مصنوعی در حال ظهور ممکن است چشم انداز جمع آوری داده ها را در این زمینه تغییر دهد.
گروسمن میگوید: مدلهای هوش مصنوعی میتوانند طیف گستردهای از تجربیات و دیدگاههای انسانی را نشان دهند و احتمالاً به آنها درجه آزادی بالاتری برای ایجاد پاسخهای متنوع نسبت به روشهای متعارف شرکتکننده انسانی میدهند. این قابلیت میتواند به کاهش نگرانیهای تعمیمپذیری در تحقیقات کمک کند.
فیلیپ تتلاک، استاد روانشناسی UPenn، افزود: LLM ها ممکن است جایگزین شرکت کنندگان انسانی برای جمع آوری داده ها شوند..
او ادامه می دهد: در واقع، LLM ها قبلاً توانایی خود را در ایجاد پاسخ های نظرسنجی واقع بینانه در مورد رفتار مصرف کننده نشان داده اند. مدلهای بزرگ زبان، پیشبینی مبتنی بر انسان را در سه سال آینده متحول خواهند کرد. برای انسانهایی که از هوش مصنوعی کمک نمیگیرند منطقی به نظر نمیرسد که ریسک قضاوت های احتمالی را در بحث های جدی سیاسی بپذیرند. من 90 درصد احتمال این تغییر را می دهم، البته نحوه واکنش انسان ها به همه اینها موضوع دیگری است.
محققان همچنین استدلال کردند که مطالعات با استفاده از شرکتکنندگان شبیهسازیشده میتواند برای ایجاد فرضیههای جدید استفاده شود و در ادامه در جمعیتهای انسانی تأیید شود.
با این حال، این رویکرد بدون مشکلات احتمالی نیست. LLM ها اغلب برای حذف تبعیض های اجتماعی-فرهنگی که برای انسان های واقعی وجود دارد آموزش می بینند، به این معنی که جامعه شناسانی که از هوش مصنوعی و این روش استفاده می کنند، نمی توانند آن جهت گیری ها را مطالعه کنند.
پروفسور داون پارکر، یکی از نویسندگان مقاله از دانشگاه واترلو، بر اهمیت معرفی دستورالعمل های روشن برای استفاده از LLM در تحقیقات علوم اجتماعی تاکید می کند.
پارکر گفت: نگرانیهای عملگرایانه در مورد کیفیت دادهها، عادلانه بودن و برابری دسترسی به سیستمهای قدرتمند هوش مصنوعی قابل توجه خواهد بود.
بنابراین، ما باید اطمینان حاصل کنیم که LLMهای علوم اجتماعی، مانند همه مدلهای علمی، منبع باز هستند، به این معنی که الگوریتمها و دادههای ایدهآل آنها برای بررسی، آزمایش و اصلاح در دسترس همه باشد. تنها با حفظ شفافیت و تکرارپذیری میتوانیم اطمینان حاصل کنیم که تحقیقات علوم اجتماعی با کمک هوش مصنوعی واقعاً به درک ما از تجربه انسانی کمک میکند.