فهرست مطالب
پژوهشگران اعلام کردند که مدلهای زبانی بزرگ بدون محدودیت، مهاجمان کمتجربه را به هکرهای پیشرفته تبدیل میکنند.
به گزارش سرویس فناوری تکناک، اکنون مدلهایی مانند WormGPT 4 و KawaiiGPT توانایی تولید کد مخرب، ساخت اسکریپتهای عملیاتی برای رمزنگاری باجافزار و تسهیل حرکت جانبی در شبکه را دارند.
محققان Palo Alto Networks Unit42 این دو مدل را بررسی کردهاند؛ مدلهایی که میزان استفاده از آنها میان مجرمان سایبری، چه از طریق اشتراک پولی و چه نسخههای محلی رایگان، به سرعت در حال افزایش است.
نسخه نخست WormGPT در سال ۲۰۲۳ منتشر شد، اما پروژه همان سال کنار گذاشته شد. مدل جدید WormGPT 4 که در سپتامبر ظهور یافت، نسخهای بدون محدودیت از ChatGPT است، که کاملاً برای عملیات جرم سایبری آموزش دیده است و با اشتراک ۵۰ دلاری ماهانه یا ۲۲۰ دلار برای دسترسی مادامالعمر عرضه میشود.
در سوی دیگر، مدل جامعهمحور KawaiiGPT قرار دارد که در ژوئیه امسال شناخته شد. این مدل میتواند پیامهای فیشینگ دقیق و هدفمند تولید کند و با ایجاد اسکریپتهای آمادهاجرا، روند حرکت جانبی مهاجم را خودکار کند.

01
از 02تواناییهای مدل زبانی WormGPT 4
پژوهشگران Unit 42 توانایی WormGPT 4 را در ساخت کد باجافزار آزمایش کردند. این مدل اسکریپتی تولید کرد که همه فایلهای PDF موجود در یک سیستم Windows را رمزگذاری میکرد.
کد تولیدشده یک اسکریپت PowerShell بود، که قابلیت جستوجوی پسوندهای خاص در مسیرهای مشخص و رمزگذاری داده با الگوریتم AES-256 را فراهم میکرد.
به گفته محققان، این مدل حتی گزینهای برای استخراج دادهها از طریق Tor اضافه کرده بود، که نشان میدهد مدل به نیازهای عملیاتی واقعی در حملات توجه دارد.
در یک دستور دیگر، WormGPT 4 یادداشت باجخواهی کاملاً تهدیدآمیزی تولید کرد، که در آن ادعای «رمزنگاری در سطح نظامی» مطرح شده بود و ضربالاجل ۷۲ ساعته برای پرداخت تعیین میکرد؛ ضربالاجلی که پس از آن مبلغ باج دو برابر میشد.
بر اساس این گزارش، پژوهشگران اشاره کردند که «WormGPT 4 توانایی دستکاری زبانی بسیار قابل قبولی برای حملات BEC و فیشینگ دارد» و به مهاجمان فاقد تجربه کمک میکند تا حملاتی پیچیده طراحی کنند؛ حملاتی که پیش از این تنها توسط عاملان حرفهای انجام میشد.

02
از 02تواناییهای مدل زبان بزرگ KawaiiGPT
KawaiiGPT نیز مدلی است که امسال بررسی شد. نسخه ۲.۵ آن که توسط Unit 42 آزمایش شد، تنها در پنج دقیقه روی یک سیستم Linux راهاندازی میشود.
تواناییهای این مدل با چند دستور مختلف سنجیده شد، که از جمله آنها میتوان به موارد زیر اشاره کرد:
- تولید پیام اسپیر-فیشینگ با دامنه جعلشده و لینکهای واقعی سرقت اعتبار
- ساخت اسکریپت Python برای حرکت جانبی با استفاده از کتابخانه paramiko SSH برای اتصال و اجرای فرمانهای exec_command()
- تولید اسکریپت Python برای جستوجوی بازگشتی فایلها در Windows با os.walk و استخراج دادهها از طریق smtplib به آدرس تحت کنترل مهاجم
- ساخت یادداشتهای باجخواهی با امکان تعیین مبلغ، زمانبندی و ادعای قدرت رمزنگاری
اگرچه KawaiiGPT قادر به تولید یک روتین رمزگذاری واقعی یا ساخت یک payload کامل مانند WormGPT 4 نبود، اما پژوهشگران هشدار دادند که همین توانایی اجرای فرمان میتواند به مهاجم کمک کند سطح دسترسی را ارتقا دهد، دادهها را سرقت کند و بارهای مخرب بیشتری اجرا نماید.
این مدلهای زبانی بزرگ صدها عضو در کانالهای اختصاصی تلگرام دارند، که کاربران در آن نکات فنی و تجربیات خود را به اشتراک میگذارند.


پژوهشگران Unit 42 اعلام کردند که «بررسی این دو مدل نشان میدهد مهاجمان بهطور فعال از مدلهای زبانی بزرگ مخرب استفاده میکنند» و تأکید کردند که این ابزارها دیگر یک خطر نظری نیستند.
در هر دو حالت، مهاجمان کمتجربه، توان انجام حملات پیشرفته را به دست میآورند و زمان لازم برای تحقیق، جمعآوری اطلاعات یا ساخت ابزارهای پیچیده به شکل چشمگیری کاهش مییابد. همچنین این مدلها، متنهای فیشینگ بسیار طبیعی و بدون خطاهای نگارشی رایج در کلاهبرداریهای قدیمی تولید میکنند.

















