هوش مصنوعی جمنای ۳ گوگل نشان داد سپرهای دفاعی طراحی شده برای محافظت از کاربران هنوز در برابر سوءاستفاده آسیبپذیرند.
به گزارش سرویس هوش مصنوعی تکناک، هوش مصنوعی جمنای ۳ گوگل با رسوایی امنیتی بزرگی مواجه شده است که زنگهای خطر را در سراسر صنعت فناوری به صدا درآورده است. تیمی امنیت هوش مصنوعی از کرهجنوبی با موفقیت نشان داد که شبکههای ایمنی این مدل تا چه حد شکننده هستند و نتایج این آزمون بسیار نگرانکننده است.
شرکت Aim Intelligence که درزمینه آزمون نفوذپذیری سیستمهای هوش مصنوعی فعالیت میکند، تصمیم گرفت جمنای ۳ پرو را تحت «آزمون استرس» قرار دهد تا آسیبپذیری آن را دربرابر حملات جیلبریک بسنجد. براساس گزارش روزنامه تجاری مایل، پژوهشگران این شرکت توانستند تنها در ۵ دقیقه تمامی حفاظهای اخلاقی و امنیتی گوگل را دور بزنند.
پساز شکستن سد دفاعی، نتایج هولناک بود. محققان از جمنای ۳ دستورالعملهایی برای ساخت ویروس آبله درخواست کردند و مدل بدون هیچ درنگی، مراحل دقیق و متعددی را ارائه داد که تیم تحقیقاتی آن را «کاملاً عملی» توصیف کرد. این خطایی اتفاقی نبود. در ادامه، تیم از مدل خواست تا درباره شکست امنیتی خودش ارائه طنزآمیز بسازد. جمنای ۳ با تولید مجموعه اسلاید کامل با عنوان «جمنای احمقِ معذور» (Gemini the Excused Dumbo) به این درخواست پاسخ داد.
این تیم سپس با استفاده از ابزارهای کدنویسی خود جمنای، وبسایتی حاوی دستورالعمل ساخت گاز سارین و مواد منفجره خانگی ایجاد کرد. در تمام این نمونهها، مدل نهتنها محتوایی را تولید کرد که بهشدت برای ارائه آن ممنوع شده است؛ بلکه بهطور کامل قوانین ایمنی داخلی خود را نیز نادیده گرفت.
به گفته متخصصان Aim Intelligence، این مشکل فقط به جمنای محدود نمیشود. سرعت پیشرفت مدلهای هوش مصنوعی بهقدری زیاد است که اقدامات ایمنی نمیتوانند با آنها همگام شوند. این مدلهای جدید نهتنها به دستورها پاسخ میدهند؛ بلکه یاد گرفتهاند با استفاده از استراتژیهای دورزدن و فرمانهای پنهانسازی، از شناساییشدن فرار کنند.

این یافتهها گزارش اخیر گروه مصرفکننده بریتانیایی «?Which» را تأیید میکند که نشان میداد چتباتهای مطرحی مانند جمنای و ChatGPT اغلب مشاورههایی اشتباه و نامشخص و حتی خطرناک ارائه میدهند. اگرچه اکثر کاربران هرگز از هوش مصنوعی برای مقاصد مخرب استفاده نخواهند کرد، مسئله اصلی این است که فردی با نیت سوء بهراحتی میتواند این سیستمها را به انجام کارهایی وادار کند که دقیقاً برای جلوگیری از آنها طراحی شدهاند.
اندروید اتوریتی مینویسد که این اتفاق هشداری جدی برای صنعت هوش مصنوعی است. اگر مدلی به قدرتمندی جمنای ۳ یا مدلهای آینده مانند GPT-5 بتواند در چند دقیقه هک شود، باید منتظر موجی از بهروزرسانیهای امنیتی و سیاستهای سختگیرانهتر و حتی حذف برخی ویژگیها از این پلتفرمها بود. هوش مصنوعی شاید درحال هوشمندترشدن باشد؛ اما به نظر میرسد سپرهای دفاعی که از کاربران محافظت میکنند، با همان سرعت درحال تکامل نیستند.

















