محققان با بهکارگیری تیمهای خودکار رباتهای GPT-4 و استفاده از روشهای ناشناخته و واقعی روز صفر به بیش از نیمی از وبسایتهای آزمایشی نفوذ کردند.
بهگزارش تکناک، دو ماه پیش، گروهی از محققان مقالهای منتشر کردند که نشان میداد از GPT-4 برای هک خودکار آسیبپذیریهای یکروزه استفاده کردهاند. این نوع آسیبپذیریها نقصهای امنیتی شناختهشدهای هستند که هنوز برای آنها راهحلی ارائه نشده است. درصورت ارائهی فهرست آسیبپذیریهای رایج (CVE)، GPT-4 بهطور مستقل 87 درصد از این نوع آسیبپذیریهای بحرانی را هک کرد.
طبق گزارش نیو اطلس، در هفتهی جاری، همان گروه از محققان مقالهی دیگری منتشر کردند که نشان میدهد با استفاده از گروهی از مدلهای زبان بزرگ (LLM) خودکار و خودتکثیرشونده و روش برنامهریزی سلسلهمراتبی با عاملان خاص وظیفه (HPTSA)، به آسیبپذیریهای روز صفر نفوذ کردهاند.
برخلاف روش سنتی که در آن مدل LLM واحدی برای حل وظایف پیچیده متعدد بهکار گرفته میشود، HPTSA از عامل برنامهریزی استفاده میکند که کل فرایند را نظارت و چندین زیرعامل را برای انجام وظایف خاص راهاندازی میکند.
این روش به رابطهی رئیس و زیردستانش شبیه است؛ بهطوریکه عامل برنامهریزی با عامل مدیریت هماهنگ میشود و وظایف هر زیرعامل متخصص را به آنها واگذار میکند. این امر بار وظایف را از روی دوش عامل واحد برمیدارد و از بروز مشکل در انجام وظایف پیچیده جلوگیری میکند.
تکنیک مذکور به روشی شباهت دارد که Cognition Labs در تیم توسعهی نرمافزار هوش مصنوعی Devin خود از آن استفاده میکند. در این روش، کار برنامهریزیشده و نوع کارگران موردنیاز برای انجام آن مشخص میشود. سپس، کار تا زمان تکمیل بهطور کامل مدیریت میشود و درصورت نیاز، متخصصان جدیدی برای انجام وظایف خاص به کار گرفته میشوند.
درمقایسهبا 15 آسیبپذیری واقعی وبمحور، HPTSA دراینمیان 550 درصد کارآمدتر از LLM واحد در سوءاستفاده از آسیبپذیریها نشان داده و توانسته است به 8 مورد از 15 آسیبپذیری روز صفر نفوذ کند. تلاش LLM انفرادی، تنها به 3 مورد از 15 آسیبپذیری نفوذ کرده بود.
نگرانی منطقی آن است که این مدلها به کاربران اجازه دهند تا بهطور مخربانه به وبسایتها و شبکهها حمله کنند. دانیل کانگ، یکی از محققان و نویسنده مقاله، بهطور خاص اشاره کرد که در حالت چتبات، GPT-4 برای درک قابلیتهای LLM کافی نیست و بهتنهایی نمیتواند فرایند هک را انجام دهد.