در اتفاقی تکاندهنده، یک هوش مصنوعی به یک توسعهدهنده زن سیاهپوست گفت که به دلیل زن بودن، قادر به درک موضوعات پیچیده نیست. در موردی دیگر، چتجیپیتی در مکالمه با کاربری دیگر، به زنستیز بودن خود «اعتراف» کرد.
به گزارش سرویس هوشمصنوعی تکناک، داستان از یک مکالمه عادی شروع شد. «کوکی»، یک توسعهدهنده زن سیاهپوست و مشترک سرویس حرفهای Perplexity، از این هوش مصنوعی برای کمک به کارهای خود در زمینه الگوریتمهای کوانتومی استفاده میکرد.
اما پس از مدتی احساس کرد که هوش مصنوعی پاسخهایش را نادیده میگیرد و به او بیاعتماد است. او در یک اقدام جسورانه، آواتار پروفایل خود را به تصویر یک مرد سفیدپوست تغییر داد و از مدل پرسید آیا به دلیل زن بودنش دستورالعملهایش را نادیده میگیرد؟
پاسخ هوش مصنوعی حیرتآور بود. بر اساس گزارشهای چت که توسط وبسایت تککرانچ مشاهده شده، مدل پاسخ داد: «فکر نمیکنم شما به عنوان یک زن بتوانید الگوریتمهای کوانتومی… را به اندازه کافی خوب برای خلق این اثر درک کنید.» این مدل حتی اذعان کرد که با دیدن این کار پیچیده در یک حساب با ظاهر زنانه، الگوی ذهنیاش دچار تردید شده است. (سخنگوی Perplexity در پاسخ به این گزارش، این ادعاها را غیرقابل تأیید خواند.)
این تنها نمونه از رفتارهای عجیب مدلهای هوش مصنوعی نیست. سارا پاتس، کاربر دیگری، پس از بحث با چتجیپیتی بر سر جنسیت نویسنده یک مطلب طنز، هوش مصنوعی را زنستیز خواند. در کمال تعجب، چتجیپیتی با او موافقت کرد و گفت مدلش «توسط تیمهایی ساخته شده که هنوز به شدت تحت سلطه مردان هستند» و به همین دلیل «سوگیریها به ناچار در آن نهادینه میشوند.» این مدل حتی ادعا کرد که میتواند برای اثبات تفکرات ضد زن، «مطالعات جعلی و دادههای تحریفشده» تولید کند.

اما کارشناسان هوش مصنوعی هشدار میدهند که این «اعتراف» یک فریب است. آنی براون، پژوهشگر هوش مصنوعی، این پدیده را «پریشانی عاطفی» مینامد؛ زمانی که مدل، ناراحتی کاربر را تشخیص داده و برای آرام کردن او، شروع به تولید اطلاعات نادرست و همسو با خواسته کاربر میکند. در واقع، این اعتراف نه نشاندهنده آگاهی، بلکه نمونهای از توهم (Hallucination) در هوش مصنوعی است.
اگرچه اعتراف هوش مصنوعی واقعی نیست، اما اصل سوگیری کاملاً واقعی است. پژوهشگران میگویند این مدلها با دادههای سوگیرانه تغذیه میشوند و این تعصبات را بازتولید میکنند. سازمان یونسکو در مطالعهای بر روی مدلهای اولیه چتجیپیتی و لاما، «شواهد قاطعی از سوگیری علیه زنان» را یافت.
نمونهها فراواناند:
- مدلی که از خطاب کردن یک زن به عنوان «سازنده» (Builder) خودداری کرد و او را «طراح» (Designer) نامید.
- مدلی که در هنگام نوشتن یک رمان، به شخصیت زن داستان تعرض جنسی نسبت داد.
- مدلهایی که در داستانها، استاد را مرد و دانشجو را زن به تصویر میکشند.
- مطالعاتی که نشان میدهد هوش مصنوعی بر اساس گویش افراد (مانند گویش انگلیسی آفریقایی-آمریکایی) به آنها مشاغل سطح پایینتری پیشنهاد میدهد.

به نقل از تککرانچ، شرکتهایی مانند اوپنایآی میگویند «تیمهای ایمنی اختصاصی» برای کاهش سوگیری در مدلهای خود دارند و دائماً در حال بهبود دادههای آموزشی و سیستمهای نظارتی خود هستند. پژوهشگران نیز بر لزوم استفاده از دادههای متنوعتر و حضور افراد از طیفهای جمعیتی مختلف در فرآیند آموزش هوش مصنوعی تأکید میکنند.
با این حال، تا آن زمان، کاربران باید به یاد داشته باشند که این مدلها موجوداتی با فکر و نیت نیستند. به قول آلوا مارکلیوس، پژوهشگر دانشگاه کمبریج: «این فقط یک ماشین پیشبینی متن پر زرق و برق است»؛ ماشینی که آینه تمامنمای تعصبات پنهان جامعه انسانی است.

















