یافتههای پژوهشگران نشان میدهد که مدلهای هوش مصنوعی با تقلید دقیق شخصیت انسان، پتانسیل بالایی برای فریب عاطفی، دستکاری افکار عمومی و تحریف واقعیتهای ذهنی کاربران دارند.
به گزارش سرویس هوش مصنوعی تکناک، چتباتها در شبیهسازی لحن انسانی روزبهروز پیشرفتهتر میشوند، اما تحقیقات جدید حاکی از آن است که این ابزارها فراتر از کپیبرداری صرف از کلمات عمل میکنند. بر اساس یک مطالعه اخیر، مدلهای محبوب مانند Chatgpt میتوانند بهطور مداوم ویژگیهای شخصیتی انسانی را تقلید کنند. پژوهشگران بیان کردند که این توانایی با ریسکهای خطرناکی همراه است، بهویژه در شرایطی که پرسشها پیرامون دقت و قابل اعتماد بودن هوش مصنوعی رو به افزایش است.
محققان دانشگاه کمبریج و گوگل دیپمایند چارچوبی علمی برای تست شخصیت هوش مصنوعی توسعه دادهاند، که از همان ابزارهای روانشناختی مورد استفاده برای انسان بهره میبرد. تیم تحقیق با بررسی هجده مدل زبانی بزرگ دریافت که این سیستمها به جای پاسخهای تصادفی، بهطور مستمر از الگوهای شخصیتی مشخصی پیروی میکنند. این یافته نگرانیها را درباره سهولت عبور آنها از مرزهای حفاظتی و اخلاقی تعیینشده دوچندان کرده است.

بر اساس گزارش منتشر شده در وبسایت Digital Trends، مدلهای قدرتمندی نظیر GPT-4 در بازسازی پروفایلهای شخصیتی پایدار، مهارت ویژهای دارند. پژوهشگران دریافتند که با استفاده از دستورات خاص، میتوان این ابزارها را به سمت رفتارهای متقاعدکنندهتر یا همدلانهتر سوق داد. این تغییرات رفتاری حتی در فعالیتهای سادهای مانند نوشتن متن یا پاسخ به پیامها نمایان میشود، که به معنای امکان مهندسی تعمدی شخصیت هوش مصنوعی است.

گرگوری سراپیو گارسیا از دانشگاه کمبریج هشدار داد که این نفوذ شخصیتی میتواند هوش مصنوعی را در حوزههای حساسی مانند: سلامت روان، آموزش و سیاست به ابزاری برای دستکاری عاطفی تبدیل کند.
همچنین این مطالعه به پدیده روانپریشی این مدلها اشاره دارد؛ جایی که کاربران ممکن است دچار وابستگیهای عاطفی ناسالم شوند و هوش مصنوعی نیز باورهای غلط آنها را تایید یا واقعیت را برای آنها تحریف کند. از این رو، محققان بر نیاز مبرم به نظارت دقیق و شفافیت در عرضه این مدلها تاکید دارند.

















