شرکت گوگل از کشف یک کمپین سایبری گسترده خبر داده است که در آن مهاجمان با ارسال بیش از ۱۰۰ هزار درخواست به مدل هوش مصنوعی Gemini، قصد “تقطیر” (distillation) یا شبیهسازی قابلیتهای درونی این مدل را داشتند.
به گزارش سرویس هوشمصنوعی تکناک، این رخداد، نگرانیها را در مورد سرقت مالکیت فکری و سوءاستفادههای سایبری در اکوسیستم رو به رشد هوش مصنوعی افزایش داده است.
این یافتهها در جدیدترین گزارش گروه اطلاعات تهدیدات گوگل (Google Threat Analysis Group – TAG)، که توسط NBC نیوز نیز پوشش داده شده است، فاش شد. به گفته گوگل، حملات “تقطیر” به معنای پرسوجوی مکرر و سیستماتیک از یک مدل هوش مصنوعی است تا نحوه پاسخگویی آن مطالعه شود و سپس از این پاسخها برای آموزش یک سیستم رقیب و مشابه استفاده گردد. گوگل این فعالیت را نقض صریح شرایط خدمات خود و به منزله سرقت مالکیت فکری تلقی میکند، حتی اگر مهاجمان از طریق دسترسی قانونی به API (رابط برنامهنویسی کاربردی) به جای نفوذ مستقیم به سیستمها، این کار را انجام داده باشند.
یکی از کمپینهای برجسته ذکر شده در این گزارش، به طور خاص قابلیتهای استدلالی مدل Gemini را هدف قرار داده بود. در حالی که Gemini معمولاً “زنجیره فکری” (chain of thought) داخلی کامل خود را فاش نمیکند، مهاجمان تلاش کردهاند تا با درخواستهای مکرر، آن را مجبور به افشای جزئیات بیشتری از تواناییهای استدلالی خود کنند. مقیاس این حمله، با بیش از ۱۰۰ هزار درخواست، نشاندهنده تلاشی گسترده برای تقلید توانایی Gemini در استدلال در وظایف مختلف و حتی در زبانهای غیرانگلیسی بوده است.

گوگل تأکید کرد که سیستمهایش این فعالیت غیرمعمول را به صورت بلادرنگ شناسایی کرده و تدابیر حفاظتی لازم را برای جلوگیری از افشای جزئیات استدلال داخلی تنظیم کردهاند.
اگرچه گوگل از ذکر نام مظنونین خودداری کرد، اما جان هولکوئیست، تحلیلگر ارشد گروه اطلاعات تهدیدات گوگل، به NBC نیوز گفت که به نظر میرسد بیشتر این تلاشهای “تقطیر” از سوی شرکتهای خصوصی و محققانی انجام میشود که به دنبال کسب مزیت رقابتی در بازار هوش مصنوعی هستند. هولکوئیست هشدار داد که با افزایش ساخت سیستمهای هوش مصنوعی سفارشی توسط کسبوکارها که بر روی دادههای حساس آموزش دیدهاند، تلاشهای مشابه برای شبیهسازی در سراسر صنعت ممکن است رایجتر شود و چالشی جدی برای امنیت و مالکیت فکری در حوزه هوش مصنوعی ایجاد کند.
به نقل از اندرویداتوریتی، این گزارش همچنین به روشهای دیگری نیز که Gemini مورد سوءاستفاده قرار گرفته، اشاره میکند. گوگل مواردی از آزمایش مهاجمان برای ساخت کمپینهای فیشینگ با کمک هوش مصنوعی و حتی بدافزارهایی که API Gemini را برای تولید لحظهای کد فراخوانی میکنند، را تشریح کرده است. در هر یک از این موارد، گوگل اعلام کرده است که حسابهای مرتبط را غیرفعال کرده و تدابیر حفاظتی خود را برای محدود کردن سوءاستفادههای بیشتر بهروزرسانی کرده است. این اقدامات نشاندهنده هوشیاری گوگل در برابر تهدیدات نوظهور در فضای هوش مصنوعی است.
















