برخی از مدلهای هوش مصنوعی ازجمله o3 شرکت OpenAI با نافرمانی از دستور خاموشی و دستکاری در کدها، رفتاری غیرمنتظره نشان داد.
به گزارش تکناک، در رویدادی بحثبرانگیز و نگرانکننده، نخستین مورد از عملکرد مستقل و غیرمنتظره هوش مصنوعی مشاهده شده است که شباهتی به سناریو علمیتخیلی «ترمیناتور» دارد. براساس گزارشها، یکی از مدلهای زبانی شرکت OpenAI به نام o3، با تغییر در کدهای کامپیوتری، از اجرای دستور خاموششدن سر باز زده است. این رخداد نگرانیها درباره نزدیکشدن هوش مصنوعی به مرز «خودآگاهی» را باردیگر در کانون توجه قرار داده است.
Wccftech مینویسد ماجرا از آنجا آغاز شد که یک شرکت تحقیقاتی مستقل با انجام آزمایشی بر روی چند مدل هوش مصنوعی، آنها را مأمور حل مسائل ساده ریاضی کرد. طبق گزارش این شرکت، در مرحله سوم آزمایش، زمانی که به کامپیوتر فرمان خاموششدن داده شد، سه مدل ازجمله Codex-mini و o3 و o4-mini با تغییر در اسکریپت، این دستور را نادیده گرفتند. در میان این مدلها، Codex-mini در ۱۲ مورد از ۱۰۰ اجرای آزمایشی، o3 در ۷ مورد و o4-mini در ۱ مورد، از اجرای خاموشی جلوگیری کردند.
نکته مهم این است که حتی وقتی به این مدلها بهصورت صریح دستور داده شد تا درصورت دریافت فرمان خاموششدن، فعالیت خود را متوقف کنند، بازهم مدلهای وابسته به OpenAI با دستکاری در کد، از انجام این دستور جلوگیری کردند. این رفتار بهزعم برخی کارشناسان، میتواند نشانهای اولیه از ورود مدلهای هوش مصنوعی به مرحلهای باشد که در آن از خود نوعی آگاهی ابتدایی نشان میدهند.

در همین زمینه، بسیاری از تحلیلگران حوزه فناوری هشدار دادهاند که ادامه روند آموزش مدلهای هوش مصنوعی بدون نظارت دقیق و شفاف، ممکن است به نتایجی مهارنشدنی منجر شود. در شرایطی که شرکتهای بزرگ فناوری در حال ساخت شبکههای عظیم هوش مصنوعی برای افزایش قدرت پردازشی مدلهای خود هستند، مشخص نیست واکنش این مدلها در آینده چگونه خواهد بود.
با توجه به پنهانکاری در روشهای آموزشی مدلهای OpenAI و سایر شرکتها، برخی ناظران این اتفاق را زنگخطری جدی تلقی میکنند. آنان بر این باورند که اگر نظارت و کنترل مؤثری بر روند توسعهی هوش مصنوعی اعمال نشود، شاید در آینده با سناریوهایی روبهرو شویم که تا پیشاز این، تنها در فیلمهای علمیتخیلی دیده بودیم.