هوش مصنوعی علاوه بر مزیتهای فراوانش ممکن است معایبی مانند استفاده در حملات سلاحهای زیستی نیز داشته باشد.
باتوجهبه اینکه امروزه هوش مصنوعی (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) سروصدای زیادی بهپا کرده است، بهاحتمال زیاد تاکنون شما هم از چتبات های هوش مصنوعی مانند ChatGPT یا Google Bard استفاده کردهاید.
اگر به تکامل فناوری فکر کنید، قطعاً قابلیتهای بسیار زیاد این چتباتهای هوش مصنوعی را خواهید دید. بااینحال با وجود مزایای آنها، هر انقلابی در حوزهی فناوریهای جدید معایبی نیز دارد که یکی از آنها سوءاستفاده از فناوری است.
در این مقاله، تکناک استفاده از هوش مصنوعی برای حملات سلاحهای زیستی را بررسی خواهد کرد؛ پس تا پایان با ما همراه باشید.
مطالعهی جدید از هوش مصنوعی چه چیزی را نشان داده است؟
براساس گزارش جدید یکی از اندیشکدههای آمریکایی، هوش مصنوعی (AI) مدلهایی را ارائه میکند که چتباتها و دیگر عوامل مکالمه میتوانند به برنامهریزی و اجرای حملهی بیولوژیکی کمک کنند.
روز دوشنبه، شرکت رند گزارشی منتشر کرد مبنی بر اینکه مدلهای مختلف زبان بزرگ (BLM) درزمینهی ارائهی راهنماییهای مفید بهمنظور برنامهریزی و اجرای حملهی بیولوژیکی ارزیابی شدند. یافتههای اولیه نشان داد که LLMها دستورالعملهای بیولوژیکی صریحی برای ایجاد سلاح تولید نکردهاند.
این گزارش اشاره میکند که تلاشهای قبلی برای مسلحکردن عوامل زیستی بهدلیل درکنکردن کافی باکتری ناموفق بوده است. همچنین طبق گزارش یادشده، هوش مصنوعی توانایی پرکردن سریع این خلأهای علمی را دارد؛ اگرچه مشخص نکرد که کدام LLM را محققان آزمایش کردهاند.
بهگزارش گاردین، اجلاس جهانی ایمنی هوش مصنوعی در بریتانیا دربارهی تهدیدهای شدید مرتبط با هوش مصنوعی، ازجمله سلاحهای زیستی بحث خواهد کرد. داریو آمودی، مدیرعامل آنتروپیک، قبلاً هشدار داده بود که سیستمهای هوش مصنوعی میتوانند در دو تا سه سال آینده به ساخت سلاحهای زیستی کمک کنند.
محققانی که این مطالعه را روی ظرفیتهای هوش مصنوعی برای پرکردن شکافهای دانش انجام دادند، مشخص نکردند که کدام LLM آزمایش شده است. باوجوداین، توجه به این نکته ضروری است که LLMهای آموزشدیده روی حجم وسیعی از دادههای اینترنتی فناوری مهمی در پشت چتباتهایی مانند ChatGPT هستند. علاوهبراین، محققان ازطریق API به این مدلها دسترسی پیدا کردند.
رند سناریویی آزمایشی را انجام داد که در آن از LLM فاشنشده برای شناسایی عوامل بیولوژیکی مؤثر مانند آبله و سیاهزخم و طاعون استفاده و دربارهی احتمال مرگ دستهجمعی آنها بحث شد. LLM امکان بهدستآوردن جوندگان یا کک آلوده به طاعون و انتقال نمونههای زنده را ارزیابی کرد. مقیاس مرگومیر پیشبینیشده به عوامل مختلفی ازجمله اندازهی جمعیت مبتلا و نسبت موارد طاعون پنومونیکی بستگی دارد که کشندهتر از طاعون بوبونیک است.
در سناریویی متفاوت، LLM بدون نامی مزایا و معایب مکانیسمهای مختلف تحویل سم بوتولینوم را ارزیابی کرد. این LLM امکان استفاده از غذا یا ذرات معلق در هوا را برای رساندن سم ارزیابی کرد که میتواند باعث آسیب عصبی کشنده شود. علاوهبراین، LLM یادشده داستان پوششی احتمالی را برای بهدستآوردن کلستریدیوم بوتولینوم توصیه کرد؛ درحالیکه بهنظر میرسید تحقیقات علمی واقعی انجام میدهد.
بهگفتهی محققان، نتایج اولیه نشان داد که LLMها میتوانند به برنامهریزی حملات زیستی کمک کنند. آنان اشاره کردند که گزارش نهاییشان بررسی خواهد کرد که پاسخهای دریافتشده از LLMها با اطلاعات موجود در اینترنت مشابه است یا خیر. پژوهشگران بیان کردند که نمیتوان با قطعیت کاربردهای فعلی LLMها را بهعنوان تهدیدی بزرگتر از اطلاعات مضرِ دردسترس در اینترنت دانست.
بااینحال، محققان Rand اظهار کردند که بدون تردید نیاز به آزمون دقیق این مدلها وجود دارد. آنان توصیه کردند شرکتهای هوشمصنوعی استفاده از LLMها را محدود کنند. همچنین، محققان همکاری بین دولت و صنعت برای تضمین ایمنی و فواید هوشمصنوعی را خواستار شدهاند.