چت بات ChatGPT ؛ ابزار جدید مهاجمان سایبری

ChatGPT

مایکروسافت و OpenAI امروز اعلام کردند که هکرها در حال استفاده از مدل‌های زبان بزرگ، مانند ChatGPT برای اصلاح و بهبود حملات سایبری خود هستند.

به‌گزارش تک‌ناک، در تحقیقات منتشر‌شده جدید، مایکروسافت و OpenAI تلاش گروه‌های تحت‌حمایت روسیه ، کره‌شمالی و چین را با استفاده از ابزارهایی مانند ChatGPT برای تحقیق درباره هدف‌ها و بهبود اسکریپت‌ها و کمک به ایجاد تکنیک‌های مهندسی اجتماعی شناسایی کرده‌اند.

مایکروسافت امروز با انتشار مطلبی در بلاگ خود اعلام کرد:

گروه‌های جرایم سایبری و مهاجمان سایبری دولتی و دیگر گروه‌های هکری در تلاش‌اند تا با ظهور فناوری‌های مختلف هوش مصنوعی، ارزش بالقوه برای عملیات خود و کنترل‌های امنیتی را که ممکن است به دورزدن نیاز داشته باشند، کشف و آزمایش کنند.

گروه Strontium که به اطلاعات نظامی روسیه مرتبط است، از LLM و ChatGPT برای درک پروتکل‌های ارتباط ماهواره‌ای و فناوری‌های تصویربرداری رادار و پارامترهای فنی خاص استفاده می‌کند. این گروه هکری که با نام‌های APT28 یا Fancy Bear نیز شناخته می‌شود، در طول جنگ روسیه و اوکراین فعال بوده و پیش‌ازاین در هدف قراردادن کمپین ریاست‌جمهوری هیلاری کلینتون در سال ۲۰۱۶ ایفای نقش کرده است.

به‌گفته مایکروسافت، این گروه از LLM نیز برای کمک به وظایف اسکریپت‌نویسی اولیه، از‌جمله دست‌کاری فایل، انتخاب داده، عبارات منظم و پردازش چندگانه برای خودکارسازی یا بهینه‌سازی عملیات فنی استفاده کرده است.

همچنین، گروه هکری کره‌شمالی به نام Thallium از LLM برای تحقیق درباره آسیب‌پذیری‌های گزارش‌شده عمومی و سازمان‌های هدف و کمک به وظایف اسکریپت‌نویسی اولیه و نوشتن محتوا برای کمپین‌های فیشینگ استفاده کرده است. مایکروسافت می‌گوید گروه معروف به Curium نیز از LLM و ChatGPT به‌منظور تولید ایمیل‌های فیشینگ و حتی کد برای اجتناب از شناسایی به‌واسطه برنامه‌های آنتی‌ویروس استفاده کرده است. ناگفته نماند که هکرهای وابسته به دولت چین هم از LLM برای تحقیق، اسکریپت‌نویسی، ترجمه و اصلاح ابزارهای موجود خود استفاده می‌کنند.

با ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT برای کمک به ایجاد ایمیل‌های مخرب و ابزارهای کرک، نگرانی‌هایی بابت استفاده از هوش مصنوعی در حمله‌های سایبری وجود داشته است. یکی از مقام‌های ارشد آژانس امنیت ملی آمریکا نیز ماه گذشته هشدار داد که هکرها از هوش مصنوعی برای قانع‌کننده‌تر‌کردن ایمیل‌های فیشینگ خود استفاده می‌کنند.

مایکروسافت و OpenAI هنوز حمله مهم انجام‌شده با استفاده از LLM را شناسایی نکرده‌اند؛ اما این شرکت‌ها تمام حساب‌ها و دارایی‌های مرتبط با این گروه‌های هکری را بسته‌اند. در‌حالی‌که به‌نظر می‌رسد استفاده از هوش مصنوعی در حملات سایبری در‌حال‌حاضر محدود است، مایکروسافت درباره کاربردهای آینده مانند جعل صدا هشدار می‌دهد. هما حیات‌فر، مدیر ارشد تحلیل تشخیص در مایکروسافت می‌گوید:

کلاه‌برداری مبتنی‌بر هوش مصنوعی یکی دیگر از نگرانی‌های مهم است. ازجمله نمونه‌های این مسئله، سنتز صدا است؛ جایی که نمونه صدای سه‌ثانیه‌ای می‌تواند مدلی را برای شبیه به هر کسی آموزش دهد. حتی چیزی به‌ظاهر بی‌ضرر مانند سلام صوتی شما می‌تواند برای به‌دست‌آوردن نمونه کافی استفاده شود.

طبیعتاً راه‌حل مایکروسافت استفاده از هوش مصنوعی برای پاسخ به حمله‌های هوش مصنوعی است. حیات‌فر می‌گوید:

هوش مصنوعی می‌تواند به مهاجمان کمک کند تا حمله‌هایشان را پیچیده‌تر کنند و منابعی نیز برای انجام این کار دارند. ما این را در بیش از ۳۰۰ بازیگر دیده‌ایم که مایکروسافت ردیابی می‌کند و از هوش مصنوعی برای محافظت و تشخیص و پاسخ استفاده می‌کنیم.

مایکروسافت در حال ساخت Security Copilot، دستیار هوش مصنوعی جدیدی است که برای متخصصان امنیت سایبری طراحی شده است تا ضعف‌ها را شناسایی و حجم عظیمی از سیگنال‌ها و داده‌هایی را بهتر درک کند که روزانه ابزارهای امنیت سایبری تولید می‌کنند. همچنین، غول نرم‌افزاری آمریکایی در حال بازنگری امنیت نرم‌افزار خود پس از حمله‌های بزرگ سایبری به ابر آژور و حتی جاسوسی هکرهای روسی از مدیران مایکروسافت است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.