هفت شرکت برتر هوش مصنوعی جهان در جدیدترین نشست خود بهبود موارد ایمنی و امنیتی محصولات هوش مصنوعی خود را وعده دادهاند.
به گزارش تکناک، پس از ماهها رایزنی و درخواست برای اظهار نظر، مذاکرات بین کاخ سفید و شرکتهای فعال در حوزه هوش مصنوعی آمازون، آنتروپیک، متا، مایکروسافت، گوگل، Inflection و OpenAI به منظور رفع نگرانیهای دولت در مورد خطرات و مشکلات سیستمهای هوش مصنوعی به نتیجه رسیده است.
یکی از اقدامات توافق شده، افزایش بودجه برای تحقیقات مبتنی بر تبعیض، به عنوان راهی برای مقابله با سوگیری های الگوریتمی موجود در شبکه های هوش مصنوعی است.
این شرکت ها همچنین با سرمایه گذاری بیشتر برای امنیت سایبری موافقت کردند. هنگام توسعه پروژهای در ابزاری مانند ChatGPT، احتمال افشا آنلاین موارد تولید شده زیاد است و OpenAI نیز تقصیری ندارد. در نتیجه هدف از افزایش سرمایه گذاری در امنیت سایبری برای مبارزه با درز چنین اطلاعاتی است.
همچنین تخصیص واترمارک به محتوای تولید شده توسط هوش مصنوعی وعده داده شده است. این موضوع اخیراً به دلایل مختلف در مطبوعات داغ شده است.
تاکنون، شرکت های هوش مصنوعی مولد شاهد شکایت های متعددی مبنی بر عدم رعایت کپی رایت بودهاند. واترمارک کردن محتوای تولید شده توسط هوش مصنوعی راهی برای کاهش ترس از داده های تصادفی و تولید شده توسط انسان (از زندگی شخصی افراد) در دریای محتوای هوش مصنوعی به سرعت در حال بهبود و رشد است.
همچنین از زاویه تأثیر سیستمیک، باید تأثیر هوش مصنوعی بر مشاغل بررسی شود. در دنیا به اندازه کافی شغلهای مختلف وجود دارد و در نهایت کارگران به سمت صنایع تحت تأثیر کمتر دیگر جذب میشوند، اما این انتقال هزینه های انسانی، اقتصادی و زمانی دارد. در صورت اعمال سریع تغییرات کل اقتصاد و سیستم کار ممکن است دچار مشکل شود.
البته، تخصیص واترمارک به دادههای تولید شده توسط هوش مصنوعی (یا دادههای مصنوعی) به نفع شرکتهای هوش مصنوعی نیز خواهد بود. آنها تمایلی به ایجاد اختلال در سیستم هوش مصنوعی خود به دلیل وجود داده های مصنوعی، مسموم، و یا ناتوانی آن در تشخیص داده های مصنوعی از داده های شخصی امن تر و بسیار گران تر، ندارند.
و اگر مشکلات مربوط به آموزش هوش مصنوعی برای مدت طولانی با سختی مواجه باشد، توسعه دهندگان هوش مصنوعی ممکن است دیگر به مجموعه داده مناسبی برای ادامه آموزش شبکه های خود دسترسی نداشته باشند.
همه این وعدهها به صورت داوطلبانه بودهاست و احتمالاً برای نشان دادن حسن نیت از سوی شرکتهایی که بیشترین سرمایهگذاری را روی هوش مصنوعی داشتند، صورت گرفته است. اما باید این مسأله را نیز در نظر گرفت: “آیا میتوان هوش مصنوعی را با سرعت حال حاضر آن کنترل کرد؟”. اگر توسعه دهندگان هوش مصنوعی مایل به افزایش داوطلبانه ایمنی و امنیت سیستم های خود هستند، پس شاید بتوانند آن را نیز به خوبی کنترل کنند.
بخشی از مشکل این رویکرد توافق تنها هفت شرکت در این زمینه است. صدها شرکت دیگر توسعه دهنده محصولات هوش مصنوعی در چه جایگاهی قرار میگیرند؟ آیا میتوان به آنهایی که در مقایسه با غولهایی مانند OpenAI و مایکروسافت کوچکتر و ضعیفتر هستند اعتماد کرد؟ زیرا این شرکتها از ارائه محصولات هوش مصنوعی سود بیشتری میبرند، و معیشت آنها به بیرون از فضای دارای آمادگی بستگی دارد. البته این اولین باری نیست که شرکتها برای کسب درآمد از یک محصول عجله میکنند.
این تعهدات مستلزم تأیید و اعتبارسنجی داخلی و خارجی فعالانه آنها است. با این حال، همیشه امکان نظارت و ارتباطات نادرست، از دسترفتن اسناد و بروز نقاط ضعف وجود دارد.
استفاده از هوش مصنوعی یک شمشیر دو لبه است که در لبه دیگر آن خطر اساسی و در سطح انقراض وجود دارد و ما قطعاً نمیخواهیم در آن باشیم.