شرکت متا اعلام کرده که ممکن است توسعه برخی از سیستمهای هوش مصنوعی را متوقف کند، در صورتی که بیش از حد خطرناک ارزیابی شوند.
به گزارش تکناک، این تصمیم در سند جدید سیاستگذاری این شرکت تحت عنوان «چارچوب هوش مصنوعی پیشرفته» مطرح شده است. بر اساس این سند، متا دو دسته از سیستمهای هوش مصنوعی را بهعنوان «پرخطر» و «خطر بحرانی» شناسایی کرده است، که امکان دارد انتشار آنها به دلایل امنیتی متوقف شود.
فهرست مطالب
معیارهای متا برای ارزیابی خطرات هوش مصنوعی
بر اساس چارچوب جدید متا، سیستمهای هوش مصنوعی که در دسته «پرخطر» قرار میگیرند، میتوانند اجرای حملات سایبری، شیمیایی و بیولوژیکی را تسهیل کنند، اما تأثیر آنها بهاندازه سیستمهای «خطر بحرانی» قطعی و غیرقابل کنترل نیست. در مقابل، سیستمهای خطر بحرانی، «میتوانند پیامدهای فاجعهباری ایجاد کنند، که خطرات آنها قابل کاهش نیست.»
شرکت متا در این سند به چند مثال از چنین خطراتی اشاره کرده است، که از جمله آن میتوان به «نفوذ خودکار و کامل به یک محیط سازمانی با سطح بالای امنیت» و «گسترش سلاحهای بیولوژیکی با تأثیر بالا» اشاره کرد.
هرچند این شرکت تأکید کرده است که این فهرست جامع نیست، اما شامل مواردی میشود که بیشترین تهدید را ایجاد خواهند کرد.
نکته قابل توجه در این چارچوب، رویکرد متا در ارزیابی خطر سیستمها است. برخلاف برخی شرکتها که از آزمایشهای تجربی مشخص برای تعیین میزان خطر استفاده میکنند، متا اعلام کرده است که «هیچ معیار کمی قطعی برای سنجش میزان خطر» وجود ندارد. در نتیجه، این شرکت برای ارزیابی میزان تهدید سیستمهای خود، به نظرات پژوهشگران داخلی و خارجی تکیه میکند، که تحت بررسی «تصمیمگیرندگان ارشد» قرار میگیرند.
اقدامات متا در برابر سیستمهای پرخطر و بحرانی
شرکت متا اعلام کرده است که در صورت تشخیص «پرخطر» بودن یک سیستم، دسترسی داخلی به آن را محدود خواهد کرد و تا زمانی که اقدامات کاهش خطر را به سطحی قابل قبول نرساند، آن را منتشر نخواهد کرد. اما اگر سیستمی در دسته «خطر بحرانی» قرار گیرد، این شرکت «توسعه آن را متوقف میکند» و «تدابیر امنیتی نامشخصی» را برای جلوگیری از استخراج و سوءاستفاده از آن به کار خواهد گرفت.
این تصمیم متا در شرایطی اتخاذ شده که این شرکت با انتقادات زیادی درباره رویکرد باز خود در توسعه هوش مصنوعی مواجه شده است. برخلاف شرکتهایی مانند OpenAI که مدلهای هوش مصنوعی خود را فقط از طریق API محدود در دسترس قرار میدهند، متا سیاست انتشار آزاد را دنبال کرده است.
چالشهای متا در استراتژی انتشار آزاد هوش مصنوعی
مدلهای هوش مصنوعی متا، Llama، تاکنون صدها میلیون بار دانلود شدهاند. اما این رویکرد، مشکلاتی را نیز برای این شرکت به همراه داشته است.
به عنوان مثال، گزارشهایی منتشر شده که نشان میدهد یکی از دشمنان ایالات متحده از مدل Llama برای توسعه یک چتبات دفاعی استفاده کرده است.
شرکت متا با انتشار چارچوب هوش مصنوعی پیشرفته، به احتمال زیاد در تلاش است تا تفاوت رویکرد خود را با شرکت چینی DeepSeek برجسته کند.
این شرکت چینی نیز سیستمهای خود را به صورت آزاد در دسترس قرار داده است، اما مدلهای آن فاقد تدابیر امنیتی قوی هستند و به راحتی میتوان از آنها برای تولید خروجیهای مضر و خطرناک استفاده کرد.
جمعبندی: متا بین شفافیت و امنیت
در نهایت، شرکت متا در این سند تأکید کرده است: «ما معتقد هستیم که با در نظر گرفتن همزمان مزایا و خطرات در تصمیمگیریهای مربوط به توسعه و استقرار هوش مصنوعی پیشرفته، امکان ارائه این فناوری به جامعه بهگونهای وجود دارد که هم منافع آن حفظ شود و هم سطحی مناسب از ریسک مدیریت گردد.»
این موضعگیری نشان میدهد که متا در حال تلاش برای یافتن تعادل میان شفافیت در توسعه هوش مصنوعی و مدیریت خطرات بالقوه آن است. با وجود این، هنوز مشخص نیست که این چارچوب چگونه در عمل پیادهسازی خواهد شد و آیا منتقدان متا آن را کافی میدانند یا خیر.