مایکروسافت و OpenAI امروز اعلام کردند که هکرها در حال استفاده از مدلهای زبان بزرگ، مانند ChatGPT برای اصلاح و بهبود حملات سایبری خود هستند.
بهگزارش تکناک، در تحقیقات منتشرشده جدید، مایکروسافت و OpenAI تلاش گروههای تحتحمایت روسیه ، کرهشمالی و چین را با استفاده از ابزارهایی مانند ChatGPT برای تحقیق درباره هدفها و بهبود اسکریپتها و کمک به ایجاد تکنیکهای مهندسی اجتماعی شناسایی کردهاند.
مایکروسافت امروز با انتشار مطلبی در بلاگ خود اعلام کرد:
گروههای جرایم سایبری و مهاجمان سایبری دولتی و دیگر گروههای هکری در تلاشاند تا با ظهور فناوریهای مختلف هوش مصنوعی، ارزش بالقوه برای عملیات خود و کنترلهای امنیتی را که ممکن است به دورزدن نیاز داشته باشند، کشف و آزمایش کنند.
گروه Strontium که به اطلاعات نظامی روسیه مرتبط است، از LLM و ChatGPT برای درک پروتکلهای ارتباط ماهوارهای و فناوریهای تصویربرداری رادار و پارامترهای فنی خاص استفاده میکند. این گروه هکری که با نامهای APT28 یا Fancy Bear نیز شناخته میشود، در طول جنگ روسیه و اوکراین فعال بوده و پیشازاین در هدف قراردادن کمپین ریاستجمهوری هیلاری کلینتون در سال ۲۰۱۶ ایفای نقش کرده است.
بهگفته مایکروسافت، این گروه از LLM نیز برای کمک به وظایف اسکریپتنویسی اولیه، ازجمله دستکاری فایل، انتخاب داده، عبارات منظم و پردازش چندگانه برای خودکارسازی یا بهینهسازی عملیات فنی استفاده کرده است.
همچنین، گروه هکری کرهشمالی به نام Thallium از LLM برای تحقیق درباره آسیبپذیریهای گزارششده عمومی و سازمانهای هدف و کمک به وظایف اسکریپتنویسی اولیه و نوشتن محتوا برای کمپینهای فیشینگ استفاده کرده است. مایکروسافت میگوید گروه معروف به Curium نیز از LLM و ChatGPT بهمنظور تولید ایمیلهای فیشینگ و حتی کد برای اجتناب از شناسایی بهواسطه برنامههای آنتیویروس استفاده کرده است. ناگفته نماند که هکرهای وابسته به دولت چین هم از LLM برای تحقیق، اسکریپتنویسی، ترجمه و اصلاح ابزارهای موجود خود استفاده میکنند.
با ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT برای کمک به ایجاد ایمیلهای مخرب و ابزارهای کرک، نگرانیهایی بابت استفاده از هوش مصنوعی در حملههای سایبری وجود داشته است. یکی از مقامهای ارشد آژانس امنیت ملی آمریکا نیز ماه گذشته هشدار داد که هکرها از هوش مصنوعی برای قانعکنندهترکردن ایمیلهای فیشینگ خود استفاده میکنند.
مایکروسافت و OpenAI هنوز حمله مهم انجامشده با استفاده از LLM را شناسایی نکردهاند؛ اما این شرکتها تمام حسابها و داراییهای مرتبط با این گروههای هکری را بستهاند. درحالیکه بهنظر میرسد استفاده از هوش مصنوعی در حملات سایبری درحالحاضر محدود است، مایکروسافت درباره کاربردهای آینده مانند جعل صدا هشدار میدهد. هما حیاتفر، مدیر ارشد تحلیل تشخیص در مایکروسافت میگوید:
کلاهبرداری مبتنیبر هوش مصنوعی یکی دیگر از نگرانیهای مهم است. ازجمله نمونههای این مسئله، سنتز صدا است؛ جایی که نمونه صدای سهثانیهای میتواند مدلی را برای شبیه به هر کسی آموزش دهد. حتی چیزی بهظاهر بیضرر مانند سلام صوتی شما میتواند برای بهدستآوردن نمونه کافی استفاده شود.
طبیعتاً راهحل مایکروسافت استفاده از هوش مصنوعی برای پاسخ به حملههای هوش مصنوعی است. حیاتفر میگوید:
هوش مصنوعی میتواند به مهاجمان کمک کند تا حملههایشان را پیچیدهتر کنند و منابعی نیز برای انجام این کار دارند. ما این را در بیش از ۳۰۰ بازیگر دیدهایم که مایکروسافت ردیابی میکند و از هوش مصنوعی برای محافظت و تشخیص و پاسخ استفاده میکنیم.
مایکروسافت در حال ساخت Security Copilot، دستیار هوش مصنوعی جدیدی است که برای متخصصان امنیت سایبری طراحی شده است تا ضعفها را شناسایی و حجم عظیمی از سیگنالها و دادههایی را بهتر درک کند که روزانه ابزارهای امنیت سایبری تولید میکنند. همچنین، غول نرمافزاری آمریکایی در حال بازنگری امنیت نرمافزار خود پس از حملههای بزرگ سایبری به ابر آژور و حتی جاسوسی هکرهای روسی از مدیران مایکروسافت است.