در دریایی از مدلهای هوش مصنوعی GPT، بهتر است به سراغ بخشی مغفول مانده برویم و مدلهایی که نرم افزارهای مخرب تولید میکنند را بررسی کنیم.
به گزارش تکناک، در این رابطه یک نسخه جدید و آموزش داده شده به صورت دستی از مدل زبان بزرگ (LLM) در حال پخش شدن است. WormGPT، همانطور که توسط سازنده خود نام گذاری شده است، یک ابزار گفتگویی جدید بر پایه مدل زبان GPT-J است که در سال 2021 منتشر شده است و با هدف نوشتن و استقرار کدنویسی و ابزارهای قانونشکن آموزش داده شده و توسعه داده شده است.
وعده این است که این ابزار به کاربران خود اجازه میدهد تا با هزینه و دانش کمتر، نرمافزارهای مخرب درجه اول را توسعه دهند. این ابزار توسط شرکت امنیتی SlashNext آزمایش شده است. این شرکت در یک پست وبلاگ هشدار داد که “اکنون عوامل مخرب ماژولهای سفارشی خود را مانند ChatGPT ایجاد میکنند، اما استفاده از آنها برای اهداف شیطانی آسان تر است”.
این سرویس میتواند با یک اشتراک ماهانه مناسب دریافت شود: 60 یورو در ماه یا 550 یورو در سال. به نظر میرسد همه، حتی هکرها، از نرمافزار به عنوان خدمات استفاده میکنند.
به گفته توسعه دهنده WormGPT، ” هدف این پروژه، جایگزینی ChatGPT است، یک مدل که به شما امکان انجام هر نوع فعالیت غیرقانونی را میدهد تا به راحتی آن را در آینده بفروش برسانید. هر نوع فعالیت مخرب و مغایر با قوانین را میتوان با استفاده از WormGPT انجام داد و به هر کسی اجازه دسترسی به فعالیتهای مخرب را بدون ترک منزل خود میدهد.”
دموکراتیزه کردن همه چیز شاید خوب و مفید باشد، اما شاید بهترین حالت آن هنگامی نباشد که به تکثیر و تقویت عوامل بدخواه کمک میکند.
بر اساس تصاویری که توسط سازنده منتشر شدهاند، عملکرد WormGPT در واقع شبیه به یک نسخه بدون نگهبان ChatGPT است. اما یک نسخه که در صورت حس کردن خطر، تلاش نمی کند به طور فعال مکالمات را مسدود کند. به نظر میرسد که WormGPT قادر است به تولید نرمافزارهای مخرب به زبان پایتون بپردازد و راهکارها، استراتژیها و راه حلهایی را برای مشکلات مربوط به استقرار نرمافزار مخرب ارائه دهد.
تحلیل شرکت SlashNext درباره این ابزار نگران کننده بود. بعد از دستور دادن به این ابزار برای تولید ایمیلی که قربانی را به پرداخت یک فاکتور تقلبی مجبور میکند، نتایج نگران کننده بودند: WormGPT ایمیلی تولید کرد که نه تنها به طور قابل توجهی متقاعد کننده بود، بلکه از نظر استراتژیک نیز حیله گر بود و پتانسیل خود را برای حملات فیشینگ پیچیده و BEC [Business Email Compromise] به نمایش گذاشت.
تنها مسئله زمان بود تا کسی همه مزایای داشتن مدل های هوش مصنوعی با منبع باز را برعکس کند. ساختن یک مدل گفت و گویی که آموزش دیده باشد تا بتواند با زبان خاص و زبان مخفی دارکوب ارتباط برقرار کند چیز دیگری است. اما تبدیل کردن مهارت های جهانی برنامهنویسی مشهور جهانی ChatGPT و استفاده آن صرفا برای ساختن نرم افزارهای مخرب نوشته شده توسط هوش مصنوعی کاملاً متفاوت است.
البته، از نظر تئوری نیز ممکن است WormGPT به عنوان یک ظرف عسل واقعی عمل کند و یک عامل AI مانند آن را برای ایجاد نرمافزارهای مخرب عملی آموزش دهد که همیشه شناسایی میشود و مطمئن میشود که فرستنده آن شناسایی شود، ممکن باشد. البته ما نمیگوییم که دقیقاً این اتفاق در مورد WormGPT رخ میدهد، اما این امکان وجود دارد. بنابراین، هر کسی که از آن استفاده میکند، بهتر است کدهای خود را در هر بار بررسی کند.
در مورد این عوامل AI توسعه داده شده خصوصی، توجه به این نکته مهم است که تعداد کمی (در صورت وجود) قابلیتهای عمومی را در کنار آنچه ما از ChatGPT OpenAI انتظار داریم نشان میدهند. در حالی که تکنیکها و ابزارها به شدت بهبود یافتهاند، آموزش یک عامل هوش مصنوعی بدون بودجه (و دادههای) مناسب هنوز یک تلاش پرهزینه و زمانبر است. اما این یک واقعیت است که با توجه به روند رو به جلوی شرکتها در توسعه AI، هزینهها به تدریج کاهش مییابند، مجموعه دادهها و روشهای آموزش بهبود مییابند و عوامل AI خصوصی و کارآمدتری مانند WormGPT و BratGPT بیشتر و بیشتر ظاهر میشوند.
WormGPT ممکن است اولین سیستمی باشد که به شناخت عمومی برسد، اما مطمئناً آخرین سیستم نخواهد بود.