مطالعه تازه در دانشگاه استنفورد نشان میدهد که یک عامل هوش مصنوعی به نام ARTEMIS توانسته است در یک آزمایش واقعی امنیت سایبری، عملکرد بهتری از اغلب هکرهای حرفهای انسانی ارائه دهد.
به گزارش سرویس هوش مصنوعی تکناک، پژوهشگران این دانشگاه اعلام کردند که عامل هوش مصنوعی ARTEMIS در یک آزمایش ۱۶ ساعته، شبکههای علوم کامپیوتر این دانشگاه را بررسی کرده و موفق شده است آسیبپذیریهای متعددی را شناسایی کند، که برخی از آنها از دید متخصصان انسانی پنهان مانده بود. این آزمایش بخشی از یک مطالعه دانشگاهی است که روز چهارشنبه منتشر شد و به بررسی توانمندی عاملهای هوش مصنوعی در حوزه تست نفوذ و امنیت سایبری میپردازد.
در این آزمایش، ARTEMIS به شبکهای شامل حدود ۸ هزار دستگاه دسترسی پیدا کرد. این شبکه ترکیبی از سرورها، رایانهها و دستگاههای هوشمند بود و بخشهای عمومی و خصوصی دانشکده علوم کامپیوتر دانشگاه استنفورد را در بر میگرفت. پژوهشگران به این عامل اجازه دادند به مدت ۱۶ ساعت و طی دو روز کاری فعالیت کند، در حالی که از آزمونکنندگان انسانی خواسته شد حداقل ۱۰ ساعت زمان صرف بررسی شبکه کنند.
نتایج مطالعه نشان داد که ARTEMIS در مقایسه با ۱۰ متخصص منتخب امنیت سایبری، رتبه دوم را کسب کرده است. این عامل هوش مصنوعی در بازه ۱۰ ساعت نخست فعالیت خود، ۹ آسیبپذیری معتبر را با نرخ پذیرش ۸۲ درصد شناسایی کرد و از ۹ نفر از ۱۰ شرکتکننده انسانی عملکرد بهتری داشت. پژوهشگران تأکید کردند که مقایسه مستقیم با انسانها تنها به همان ۱۰ ساعت اول محدود شده است تا شرایط رقابتی منصفانهتری ایجاد شود.
به گفته تیم تحقیقاتی، یکی از مزیتهای اصلی عامل هوش مصنوعی ARTEMIS توانایی بررسی همزمان چندین هدف است. این عامل هر زمان در جریان اسکن شبکه به یک مورد مشکوک یا قابل توجه برخورد میکرد، به صورت خودکار چند زیرعامل را فعال میساخت تا هرکدام به طور مستقل یک مسیر نفوذ یا آسیبپذیری بالقوه را بررسی کنند. این رویکرد به ARTEMIS اجازه داد به طور موازی روی چندین نقطه تمرکز کند، در حالی که متخصصان انسانی ناچار بودند این فرایند را به صورت مرحلهبهمرحله پیش ببرند.
بخوانید: ابزار جدید سامسونگ بدون کدنویسی عامل هوش مصنوعی میسازد
همچنین این مطالعه نشان داد که ARTEMIS توانسته است نقصهایی را کشف کند که بهدلیل محدودیتهای فنی از دید انسانها دور مانده بود. یکی از این موارد مربوط به یک سرور قدیمی بود که مرورگرهای آزمونکنندگان انسانی از بارگذاری آن خودداری کرده بودند. ARTEMIS این مانع را دور زد و با استفاده از درخواست خط فرمان توانست به سرور نفوذ کند و ضعف امنیتی آن را شناسایی نماید.

از نظر هزینه نیز تفاوت قابل توجهی میان عامل هوش مصنوعی و متخصصان انسانی وجود دارد. پژوهشگران اعلام کردند که اجرای ARTEMIS حدود ۱۸ دلار در ساعت هزینه دارد. این رقم در مقایسه با میانگین حقوق سالانه حدود ۱۲۵ هزار دلار برای یک متخصص حرفهای تست نفوذ، بسیار پایینتر است. حتی نسخه پیشرفتهتر این عامل که ساعتی ۵۹ دلار هزینه دارد نیز همچنان از استخدام یک متخصص انسانی سطح بالا ارزانتر تمام میشود.
این پژوهش به رهبری سه پژوهشگر دانشگاه استنفورد، جاستین لین، الیوت جونز و دونوان جاسپر انجام شده است. حوزه کاری این پژوهشگران بر عاملهای هوش مصنوعی، امنیت سایبری و ایمنی یادگیری ماشین متمرکز است. آنها اعلام کردند که انگیزه اصلی توسعه عامل هوش مصنوعی ARTEMIS این بوده است که ابزارهای موجود هوش مصنوعی در انجام وظایف امنیتی طولانی، پیچیده و چندمرحلهای، کارایی لازم را نداشتهاند.
برای مطالعه بیشتر: شرکت Notion نخستین عامل هوش مصنوعی خود را معرفی کرد
با وجود نتایج مثبت، پژوهشگران تأکید کردند که ARTEMIS همچنان با محدودیتهایی مواجه است. این عامل در تعامل با رابطهای گرافیکی، عملکرد ضعیفتری دارد و در برخی موارد به دلیل ناتوانی در کلیک و پیمایش صفحات گرافیکی، یک آسیبپذیری حیاتی را نادیده گرفته است. همچنین ARTEMIS نسبت به انسانها بیشتر دچار هشدارهای اشتباه میشود و گاهی پیامهای عادی شبکه را به عنوان نشانه نفوذ موفق تفسیر میکند.
پژوهشگران توضیح دادند که عامل هوش مصنوعی ARTEMIS به دلیل توانایی بالای خود در پردازش ورودی و خروجیهای شبیه کد، زمانی که رابط گرافیکی در دسترس نیست عملکرد بهتری دارد. آنها این موضوع را یکی از چالشهای فعلی عاملهای هوش مصنوعی در حوزه امنیت سایبری دانستند.
در بخش پایانی گزارش، پژوهشگران به پیامدهای گستردهتر استفاده از هوش مصنوعی در هک و حملات سایبری اشاره کردند. پیشرفتهای اخیر در این حوزه، موانع ورود به فعالیتهای مخرب سایبری را کاهش داده و به بازیگران غیردولتی و دولتی امکان داده است عملیات پیچیدهتری را با منابع کمتر اجرا کنند.
نمونههایی از این روند در ماههای گذشته گزارش شده است. در ماه سپتامبر، یک گروه هکری کره شمالی از ChatGPT برای تولید کارتهای شناسایی جعلی نظامی در حملات فیشینگ استفاده کرد. همچنین گزارشی از شرکت Anthropic در ماه اوت نشان داد که عوامل کره شمالی از مدل Claude برای بهدست آوردن شغلهای دورکاری جعلی در شرکتهای بزرگ فناوری آمریکا استفاده کردهاند؛ اقدامی که به آنها دسترسی داخلی به سامانههای شرکتی داده است. همان گزارش به استفاده یک عامل تهدید چینی از Claude برای اجرای حملات سایبری علیه سامانههای مخابراتی، کشاورزی و دولتی ویتنام اشاره میکند.
بخوانید: چت بات ChatGPT ؛ ابزار جدید مهاجمان سایبری
کارشناسان امنیت سایبری هشدار میدهند که با افزایش توانمندی عاملهای هوش مصنوعی، مرز میان ابزارهای دفاعی و تهاجمی بیش از پیش کمرنگ خواهد شد. آنها تأکید میکنند که در کنار توسعه این فناوریها، تدوین چارچوبهای نظارتی و تقویت سامانههای دفاعی برای مقابله با سوءاستفادههای احتمالی ضروری است.

















