در یک تصمیم بحثبرانگیز، شرکت گوگل اعلام کرده است که محدودیتهای خود بر روی توسعهی هوش مصنوعی برای اهداف نظامی را برداشته است.
به گزارش تکناک، گوگل با حذف ممنوعیت دیرینهی خود در زمینهی استفاده از هوش مصنوعی در سامانههای تسلیحاتی و نظارتی، رویکرد تازهای در قبال توسعهی این فناوری در پیش گرفته است؛ تغییری که به گفتهی کارشناسان و کارکنان پیشین این شرکت، میتواند مسیر ایمنی هوش مصنوعی در سیلیکون ولی را دگرگون کند.
این تغییر که هفتهی گذشته بدون اعلام رسمی اعمال شد، بخشهایی از اصول هوش مصنوعی گوگل را که صراحتاً توسعهی این فناوری برای کاربردهای تسلیحاتی و نظارتی را ممنوع میکرد، حذف کرده است. اصول مذکور که در سال ۲۰۱۸ تدوین شدند، بهعنوان یک معیار برای توسعهی مسئولانهی هوش مصنوعی در صنعت شناخته میشدند.
تریسی پیزو فری، مدیر ارشد سابق مدیریت محصولات، تعاملات و هوش مصنوعی مسئولانه در Google Cloud، با اشاره به این تغییر در پستی در بلواسکای نوشت: «آخرین سنگر هم فرو ریخت. دیگر هیچ محدودیتی وجود ندارد.» او که پنج سال در اجرای این اصول نقش داشت، افزود: «گوگل در سطحی بیسابقه دربارهی تعهدات خود به آنچه میسازد، شفاف بود.»
فهرست مطالب
تغییر اصول اخلاقی گوگل؛ پیامدهای آن بر فناوریهای نظامی و نظارتی
اصول بازنگریشدهی گوگل، چهار ممنوعیت اساسی را حذف کردهاند: فناوریهایی که احتمالاً آسیب کلی ایجاد میکنند، کاربردهای تسلیحاتی، سامانههای نظارتی و فناوریهایی که ناقض قوانین بینالمللی و حقوق بشر هستند. در عوض، گوگل اکنون اعلام کرده که «پیامدهای ناخواسته یا زیانآور را کاهش خواهد داد» و تلاش میکند با «اصول پذیرفتهشدهی بینالمللی در زمینهی قوانین و حقوق بشر» همسو باشد.
این تغییر در حالی صورت گرفته که پیشرفتهای هوش مصنوعی شتاب گرفته و بحثهای پیرامون چارچوبهای نظارتی مناسب برای این فناوری شدت یافته است. زمانبندی این اقدام، پرسشهایی را دربارهی انگیزههای گوگل مطرح کرده است، هرچند این شرکت تأکید دارد که تغییرات مذکور از مدتها پیش در دست بررسی بوده است.
پیزو فری در گفتوگو با VentureBeat اظهار داشت: «در شرایطی که اعتماد عمومی به شرکتهای بزرگ فناوری کاهش یافته، هر اقدامی که حتی ظاهراً محدودیتها را کاهش دهد، بیاعتمادی بیشتری ایجاد میکند.» او بر این نکته تأکید کرد که وجود مرزهای اخلاقی مشخص، در دوران فعالیتش در گوگل، برای ایجاد سیستمهای هوش مصنوعی قابلاعتماد ضروری بوده است.
اصول اولیهی گوگل در سال ۲۰۱۸ و پس از اعتراضات گستردهی کارکنان این شرکت به پروژهی Maven تدوین شد؛ قراردادی که به پنتاگون امکان میداد از هوش مصنوعی برای تحلیل تصاویر پهپادی استفاده کند. هرچند گوگل از تمدید این قرارداد خودداری کرد، تغییرات جدید ممکن است به معنای آمادگی این شرکت برای همکاریهای مشابه در آینده باشد.
از پروژه Maven تا تغییر سیاست؛ مسیر بازنگری اصول اخلاقی گوگل در هوش مصنوعی
ناظران صنعت معتقدند که این تغییر میتواند بر نحوهی برخورد سایر شرکتهای فناوری با اصول اخلاقی در حوزهی هوش مصنوعی تأثیر بگذارد. اصول اولیهی گوگل بهعنوان الگویی برای خودتنظیمی شرکتها در توسعهی این فناوری عمل میکرد و بسیاری از شرکتها از آن بهعنوان معیار مسئولیتپذیری در توسعهی هوش مصنوعی استفاده میکردند.
تعدیل این اصول، بازتابی از تنشهای گستردهتر در صنعت فناوری است که بین نوآوری سریع و محدودیتهای اخلاقی تعادل برقرار میکند. با تشدید رقابت در توسعهی هوش مصنوعی، شرکتها با فشار بیشتری برای ایجاد توازن میان توسعهی مسئولانه و نیازهای بازار مواجه هستند.
پیزو فری با ابراز نگرانی از این روند گفت: «سرعت انتشار فناوریهای جدید بهشدت افزایش یافته و اگر محدودیتهای بیشتری حذف شوند، پیامدهای آن غیرقابل پیشبینی خواهد بود.»
دوراهی اخلاقی شرکتهای بزرگ فناوری
این بازنگری همچنین پرسشهایی را دربارهی فرآیندهای تصمیمگیری داخلی در گوگل و نحوهی برخورد کارکنان با ملاحظات اخلاقی در غیاب ممنوعیتهای صریح ایجاد کرده است. پیزو فری در دوران فعالیتش در گوگل، فرآیندهای نظارتی را ایجاد کرده بود که دیدگاههای متنوعی را برای ارزیابی تأثیرات احتمالی کاربردهای هوش مصنوعی در نظر میگرفت.
در حالی که گوگل همچنان بر تعهد خود به توسعهی مسئولانهی هوش مصنوعی تأکید دارد، حذف ممنوعیتهای مشخص نشاندهندهی تغییر رویکرد این شرکت نسبت به گذشته است. با ادامهی پیشرفت هوش مصنوعی، بسیاری از کارشناسان نظارهگر خواهند بود که این تغییر چگونه بر روند توسعه و مقرراتگذاری در این حوزه تأثیر خواهد گذاشت.