استفاده از هوش مصنوعی برای حملات سلاح‌های زیستی

هوش مصنوعی علاوه‌ بر مزیت‌های فراوانش ممکن است معایبی مانند استفاده در حملات سلاح‌های زیستی نیز داشته باشد.

با‌توجه‌به اینکه امروزه هوش مصنوعی (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) سر‌و‌صدای زیادی به‌پا کرده است، به‌احتمال زیاد تاکنون شما هم از چت‌بات‌ های هوش مصنوعی مانند ChatGPT یا Google Bard استفاده کرده‌اید.

اگر به تکامل فناوری فکر کنید، قطعاً قابلیت‌های بسیار زیاد این چت‌بات‌های هوش مصنوعی را خواهید دید. بااین‌حال با وجود مزایای آن‌ها، هر انقلابی در حوزه‌ی فناوری‌های جدید معایبی نیز دارد که یکی از آن‌ها سوء‌استفاده از فناوری است.

در این مقاله، تک‌ناک استفاده از هوش مصنوعی برای حملات سلاح‌های زیستی را بررسی خواهد کرد؛ پس تا پایان با ما همراه باشید.

مطالعه‌ی جدید از هوش مصنوعی چه چیزی را نشان داده است؟

بر‌اساس گزارش جدید یکی از اندیشکده‌های آمریکایی، هوش مصنوعی (AI) مدل‌هایی را ارائه می‌کند که چت‌بات‌ها و دیگر عوامل مکالمه می‌توانند به برنامه‌ریزی و اجرای حمله‌ی بیولوژیکی کمک کنند.

روز دوشنبه، شرکت رند گزارشی منتشر کرد مبنی بر اینکه مدل‌های مختلف زبان بزرگ (BLM) درزمینه‌ی ارائه‌ی راهنمایی‌های مفید به‌منظور برنامه‌ریزی و اجرای حمله‌ی بیولوژیکی ارزیابی شدند. یافته‌های اولیه نشان داد که LLMها دستورالعمل‌های بیولوژیکی صریحی برای ایجاد سلاح تولید نکرده‌اند.

این گزارش اشاره می‌کند که تلاش‌های قبلی برای مسلح‌کردن عوامل زیستی به‌دلیل درک‌نکردن کافی باکتری ناموفق بوده است. همچنین طبق گزارش یادشده، هوش مصنوعی توانایی پرکردن سریع این خلأ‌های علمی را دارد؛ اگرچه مشخص نکرد که کدام LLM را محققان آزمایش کرده‌اند.

به‌گزارش گاردین، اجلاس جهانی ایمنی هوش مصنوعی در بریتانیا درباره‌ی تهدید‌های شدید مرتبط با هوش مصنوعی، از‌جمله سلاح‌های زیستی بحث خواهد کرد. داریو آمودی، مدیر‌عامل آنتروپیک، قبلاً هشدار داده بود که سیستم‌های هوش مصنوعی می‌توانند در دو تا سه سال آینده به ساخت سلاح‌های زیستی کمک کنند.

محققانی که این مطالعه را روی ظرفیت‌های هوش مصنوعی برای پر‌کردن شکاف‌های دانش انجام دادند، مشخص نکردند که کدام LLM آزمایش شده است. باوجوداین، توجه به این نکته ضروری است که LLM‌های آموزش‌دیده روی حجم وسیعی از داده‌های اینترنتی فناوری مهمی در پشت چت‌بات‌هایی مانند ChatGPT هستند. علاوه‌بر‌این، محققان ازطریق API به این مدل‌ها دسترسی پیدا کردند.

رند سناریویی آزمایشی را انجام داد که در آن از LLM فاش‌نشده برای شناسایی عوامل بیولوژیکی مؤثر مانند آبله و سیاه‌زخم و طاعون استفاده و درباره‌ی احتمال مرگ دسته‌جمعی آن‌ها بحث شد. LLM امکان به‌دست‌آوردن جوندگان یا کک آلوده به طاعون و انتقال نمونه‌های زنده را ارزیابی کرد. مقیاس مرگ‌و‌میر پیش‌بینی‌شده به عوامل مختلفی از‌جمله اندازه‌ی جمعیت مبتلا و نسبت موارد طاعون پنومونیکی بستگی دارد که کشنده‌تر از طاعون بوبونیک است.

در سناریویی متفاوت، LLM بدون نامی مزایا و معایب مکانیسم‌های مختلف تحویل سم بوتولینوم را ارزیابی کرد. این LLM امکان استفاده از غذا یا ذرات معلق در هوا را برای رساندن سم ارزیابی کرد که می‌تواند باعث آسیب عصبی کشنده شود. علاوه‌بر‌این، LLM یادشده داستان پوششی احتمالی را برای به‌دست‌آوردن کلستریدیوم بوتولینوم توصیه کرد؛ در‌حالی‌که به‌نظر می‌رسید تحقیقات علمی واقعی انجام می‌دهد.

به‌گفته‌ی محققان، نتایج اولیه نشان داد که LLM‌ها می‌توانند به برنامه‌ریزی حملات زیستی کمک کنند. آنان اشاره کردند که گزارش نهایی‌شان بررسی خواهد کرد که پاسخ‌های دریافت‌شده از LLM‌ها با اطلاعات موجود در اینترنت مشابه است یا خیر. پژوهشگران بیان کردند که نمی‌توان با قطعیت کاربردهای فعلی LLM‌ها را به‌عنوان تهدیدی بزرگ‌تر از اطلاعات مضرِ دردسترس در اینترنت دانست.

با‌این‌حال، محققان Rand اظهار کردند که بدون تردید نیاز به آزمون دقیق این مدل‌ها وجود دارد. آنان توصیه کردند شرکت‌های هوش‌مصنوعی استفاده از LLMها را محدود کنند. همچنین، محققان همکاری بین دولت و صنعت برای تضمین ایمنی و فواید هوش‌مصنوعی را خواستار شده‌اند.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.