شرکت کلودفلیر در حال توسعه فایروال هوش مصنوعی است و از ابزارهای هوش مصنوعی خود برای دفاع دربرابر حملههای سایبری مبتنیبر هوش مصنوعی استفاده میکند.
بهگزارش تکناک، پژوهشها حاکی از آن است که تهدیدهای امنیتی جدیدی در حوزه هوش مصنوعی در حال ظهور است. دراینمیان، کلودفلیر در حال توسعه فایروال اختصاصی خود برای مدلهای هوش مصنوعی مولد است تا از آنها دربرابر حملههای بالقوه سایبری یا سایر تهدیدهای مخرب محافظت کند. همچنین، این شرکت در حال توسعه ابزارهای هوش مصنوعی داخلی خود برای دفاع دربرابر هوش مصنوعی مخرب است.
پیسیمگ مینویسد که فایروال هوش مصنوعی کلودفلیر برای شناسایی حملههای بالقوه قبل از وقوع طراحی شده است. این فایروال برنامهای تحتوب است؛ یعنی میتواند ترافیک مخرب مشکوک را مسدود کند. فایروال مذکور از استانداردهای موجود در دیگر فایروالها بهره خواهد برد؛ اما دستورهای ارسالی کاربران هوش مصنوعی مولد را نیز بهمنظور شناسایی حملهها قبل از اجرایشان میتواند تجزیهوتحلیل کند.
فناوریهای نوین مسیرهای جدیدی را برای حملههای بالقوه سایبری باز میکنند؛ اما به این نکته توجه کنید که فایروال هوش مصنوعی کلودفلیر بدینمعنی است که وبسایتها و ابزارهای هوش مصنوعی که از آن استفاده میکنند، ابتدا دادههای ورودی کاربر را ازطریق کلودفلیر قبل از رسیدن به خود هوش مصنوعی مولد فیلتر میکنند. همچنین، فایروال هوش مصنوعی میتواند درخواستهای هوش مصنوعی مولد را اساساً قطع و آنها را برای تهدیدها بالقوه اسکن کند.
فایروال هوش مصنوعی کلودفلیر میتواند ورودیهای کاربر را نیز به شیوههای دیگر فیلتر کند. این فایروال برای جلوگیری از دستکاری مدلهای هوش مصنوعی با ورودیهایی طراحی شده است که میتوانند باعث شوند مدل هوش مصنوعی توهمزده پاسخهای جعلی یا خطرناک ایجاد کند. افزونبراین، مشتریان میتوانند دستورهایی را مسدود کنند که در دستههای نامناسب قرار میگیرند؛ البته اگر نگران باشند که چنین دستورهای باعث شود هوش مصنوعی از «زبان سمّی و توهینآمیز یا مشکلساز» استفاده کند.
درحالیکه این شرکت چنین مواردی را نمونههایی از حملههای «تزریق دستور» مینامد، مشخص نیست که درنتیجه چه تعداد از درخواستهای واقعی کاربران فیلتر شوند. ناگفته نماند که کلودفلیر این هفته «هوش مصنوعی دفاعی» خود برای مشاغل را رونمایی کرد که از مدلهای هوش مصنوعی بهمنظور تجزیهوتحلیل وبسایتها برای تهدیدهای بالقوه با نیروی هوش مصنوعی استفاده میکند.
باتوجهبه اینکه تحقیقات اخیر نشان میدهند که دستیاران هوش مصنوعی میتوانند برای انتشار کرمها (نوعی بدافزار خودتکثیرشونده) استفاده شوند، توسعه فایروالهای هوش مصنوعی و سایر روشهای پیشگیری چندان جای تعجب ندارد. در محیط آزمایشی، کرم با فریبدادن مدلهای هوش مصنوعی که به آنها قدرت میدهند، توانست دستیاران ایمیل هوش مصنوعی را مختل و آنها را به ارسال ایمیلهای اسپم و استخراج دادههای شخصی وادار کند.