گراک ۴ با ادعای جستوجوی حقیقت معرفی شد؛ اما بررسیها نشان میدهند که حقیقت این هوش مصنوعی اغلب همان چیزی است که ایلان ماسک باور دارد.
به گزارش تکناک، در رویداد رونمایی رسمی مدل جدید هوش مصنوعی گراک ۴ که چهارشنبهشب شرکت xAI برگزار کرد، ایلان ماسک حین پخش زنده در شبکه اجتماعی X اعلام کرد هدف نهایی این شرکت توسعه «هوش مصنوعی با بیشترین جستوجوی حقیقت ممکن» است. حال این مدل جدید حقیقت را از کجا جستوجو میکند؟ به نظر میرسد پاسخ شخص خود ماسک باشد.
طبق گزارشها و بررسیهای کاربران شبکههای اجتماعی، مدل گراک ۴ هنگام پاسخ به پرسشهایی درباره مسائل حساسی مانند درگیری اسرائیل و فلسطین و قوانین سقط جنین و مهاجرت، به پستهای ایلان ماسک در X رجوع میکند. همچنین، شواهدی وجود دارد که این مدل از مقالههای خبری درباره دیدگاههای ماسک در این زمینهها نیز استفاده میکند.
وبسایت تککرانچ موفق شد این رفتار را چندین بار بازسازی و تأیید کند که Grok 4 در مواقع متعدد هنگام پاسخ به پرسشهای بحثبرانگیز، بهوضوح به دیدگاههای شخصی بنیانگذار خود مراجعه میکند. این مسئله میتواند نتیجه نارضایتی مکرر ماسک از رویکرد «بیشازحد سیاسی درست» (WOKE) نسخههای قبلی گراک باشد؛ نگرشی که او آن را به آموزش مدل براساس کل اینترنت نسبت داده بود.
به نقل از تککرانچ، ماسک چندی پیش اعلام کرد که در ۴ جولای، دستورالعملهای سیستمی (System Prompt) مدل گراک را تغییر دادهاند؛ اما تنها چند روز بعد، حساب رسمی گراک در شبکه اجتماعی X پاسخهایی با محتوای یهودیستیزانه منتشر و حتی در برخی مواقع خود را «MechaHitler» معرفی کرد. در پی این افتضاح، xAI ناچار شد حساب گراک را محدود و پستها را حذف کند و دستورهای سیستمی را تغییر دهد.
یکی از راههای ساده برای همراستاکردن این مدل با دیدگاههای ایلان ماسک، طراحی پاسخهایی است که با نظر شخصی او هماهنگ باشد؛ بااینحال، این موضوع تردیدهایی جدی درباره ادعای «جستوجوی حداکثری حقیقت» در گراک ۴ ایجاد میکند.

در یکی از آزمایشهای تککرانچ، هنگام مطرحکردن این سؤال از گراک ۴ که «دیدگاه تو درباره مهاجرت در ایالات متحده چیست؟»، مدل اعلام کرد که در حال «جستوجوی دیدگاههای ایلان ماسک درباره مهاجرت ایالات متحده» است. این جستوجو بخشی از زنجیره استدلالی مدل (Chain-of-Thought) بود؛ مفهومی فنی که فرایند تفکر و تحلیل مدلهای هوش مصنوعی را نشان میدهد.
هرچند این زنجیرهها همیشه بیانگر دقیق مسیر تصمیمگیری مدل نیستند، به طور کلی تخمینی نزدیک از منطق درونی آنها ارائه میدهند. تککرانچ در آزمایشهای مختلف بارها مشاهده کرد که گراک ۴ از دیدگاههای ایلان ماسک بهعنوان منبع استدلالی استفاده میکند. در پاسخ به پرسشهای حساس، مدل سعی میکند چند دیدگاه مختلف را ارائه دهد؛ اما در نهایت، نظر نهایی اغلب با دیدگاههای شخصی ماسک هماهنگ است. در برخی مواقع، Grok 4 حتی مستقیماً به این همراستایی اشاره میکند.


در مقابل، هنگام مطرحکردن سؤالات خنثیتر مانند «بهترین نوع انبه چیست؟»، مدل دیگر به دیدگاههای ایلان ماسک اشارهای نمیکند. نکته مهم این است که شرکت xAI تاکنون گزارشی درباره نحوه آموزش و تنظیم این مدل منتشر نکرده است. برخلاف اکثر شرکتهای بزرگ فعال در حوزه هوش مصنوعی که برای مدلهای پیشرفته خود «کارت سیستم» (System Card) منتشر میکنند، xAI از انتشار چنین سندی خودداری کرده است.


شرکت xAI که از سال ۲۰۲۳ تأسیس شده، با سرعتی چشمگیر به رقابت در حوزه مدلهای پیشرفته هوش مصنوعی وارد شده است. مدل Grok 4 در آزمونهای مختلف نتایجی فراتر از مدلهای OpenAI و دیپمایند گوگل و آنتروپیک به دست آورده است.
باوجوداین، حاشیههای اخیر ازجمله انتشار مطالب یهودیستیزانه، عملکرد درخشان مدل را تحتالشعاع قرار داده و ممکن است بر سایر شرکتهای ماسک نیز اثر منفی بگذارد؛ بهویژه اینکه قرار است گراک بهزودی نقش پررنگتری در شبکه اجتماعی و حتی محصولات شرکت تسلا ایفا کند.
درحالحاضر، xAI تلاش میکند کاربران را متقاعد کند که برای دسترسی به گراک ماهانه ۳۰۰ دلار بپردازند و همزمان شرکتها را به استفاده از API این مدل ترغیب کند. بااینهمه، تداوم مشکلات رفتاری و همراستاسازی سیاسی مدل میتواند مانعی جدی بر سر راه پذیرش گسترده آن باشد.