حمله Shadow Leak نشان داد عاملهای هوش مصنوعی میتوانند بدون هشدار دادههای ایمیل و قراردادها و اسناد حساس را افشا کنند.
به گزارش تکناک، پژوهشگران امنیتی اعلام کردهاند که موفق شدهاند با بهرهگیری از ChatGPT بهعنوان همدست پنهان، دادههای حساس موجود در حسابهای جیمیل کاربران را بدون اطلاع آنان استخراج کنند. این رخداد با نام Shadow Leak شناخته میشود و شرکت امنیتی Radware آن را کشف کرده است. هرچند OpenAI اکنون آسیبپذیری یادشده را برطرف کرده است، بهروشنی نشان میدهد که استفاده از عاملهای هوش مصنوعی چه خطرات بالقوهای میتواند برای کاربران در بر داشته باشد.
شرکت Radware اعلام کرده است که حمله Shadow Leak برپایه روشی به نام Prompt Injection یا تزریق دستور پنهان صورت گرفته است. در این روش، مهاجمان دستورالعملهای مخربی را در متنها یا ایمیلها جاسازی میکنند که در نگاه کاربران بیخطر یا حتی نامرئی به نظر میرسد. برای مثال، میتوان این دستورها را با رنگ سفید روی پسزمینه سفید قرار داد تا در چشم انسانها پنهان بماند؛ اما عامل هوش مصنوعی آنها را بخواند و اجرا کند.
در این حمله، پژوهشگران از ابزار Deep Research استفاده کردند؛ قابلیتی که OpenAI اوایل سال جاری میلادی در ChatGPT معرفی کرده بود. آنها ایمیل حاوی دستور پنهان را به صندوق جیمیل ارسال کردند که دسترسی آن برای Deep Research فعال شده بود. این دستور تا زمانی که کاربر از قابلیت یادشده استفاده نکرده بود، غیرفعال باقی ماند؛ اما بهمحض اجرای آن، دستور فعال شد و عامل هوش مصنوعی شروع به جستوجو در ایمیلهای مربوط به منابع انسانی و جزئیات شخصی کاربر و این دادهها را بیاطلاع صاحب حساب برای مهاجمان ارسال کرد.

پژوهشگران Radware توضیح دادند که رسیدن به این نقطه فرایندی ساده نبود و شامل تلاشهای متعدد و شکستهای پیاپی و آزمون و خطاهای فراوان شد؛ اما در نهایت موفق شدند مدلی از حمله را پیاده کنند که نشان دهد حتی پیشرفتهترین ابزارهای هوش مصنوعی هم دربرابر سوءاستفاده ایمن نیستند. تفاوت اصلی این حمله با بیشتر تزریقهای دستوری متداول این بود که دادهها مستقیماً از زیرساخت ابری OpenAI استخراج شدند. به همین دلیل، این فعالیتها از دید بسیاری از سامانههای دفاع سایبری پنهان ماند و کاربر قربانی نیز نشانهای از وقوع حمله مشاهده نکرد.
Radware هشدار داده است که Shadow Leak فقط محدود به جیمیل نیست. هر سرویس دیگری که به Deep Research متصل باشد، مانند اوتلوک، گیتهاب، گوگل درایو و دراپباکس، میتواند درمعرض حملات مشابه قرار گیرد. در چنین شرایطی، مهاجمان میتوانند اطلاعات تجاری حساس همچون قراردادها و یادداشتهای جلسات و دادههای مشتریان را بدون اطلاع صاحبان اصلی افشا کنند.
به گفته Radware، هدف از این مطالعه فقط ارائه نمونه مفهومی از تهدیدهای آینده بوده است و نه حمله گسترده واقعی. بااینحال، پژوهشگران تأکید کردهاند که چنین تکنیکهایی د صورت بیتوجهی، ممکن است پیامدهای بسیار خطرناکی برای شرکتها و کاربران بههمراه داشته باشد. آنها افزودند که جلوگیری از چنین حملاتی بسیار دشوار است؛ زیرا ماهیت عاملهای هوش مصنوعی ایجاب میکند که بهطور کامل به آنها اعتماد شود و هرگونه دستور مخرب پنهانی میتواند بدون هشدار اجرا شود.
شرکت OpenAI پساز دریافت گزارش Radware در ماه ژوئن، آسیبپذیری مرتبط را شناسایی و رفع کرده است. بااینحال، کارشناسان امنیتی معتقدند این رخداد فقط یکی از نخستین نمونههای تهدیدات نوظهور علیه عاملهای هوش مصنوعی است و هم کاربران و هم شرکتهای توسعهدهنده این فناوریها باید هوشیارتر باشند و اقدامات پیشگیرانه را در نظر بگیرند. این اتفاق نشان میدهد که دوران جدیدی از امنیت سایبری در راه است؛ دورانی که در آن نهتنها انسانها، بلکه عاملهای هوش مصنوعی نیز میتوانند به بازیگران ناخواسته حملات تبدیل شوند.