آیا سیستم های هوش مصنوعی نیازمند هشدارهای ایمنی است؟

سیستم های هوش مصنوعی

با توجه به اینکه سیستم‌های هوش مصنوعی چقدر قدرتمند هستند، و نقش‌هایی که به طور فزاینده‌ای در کمک به تصمیم‌گیری‌های پرمخاطره در مورد زندگی، خانه‌ها و جوامع ما ایفا می‌کنند، به طرز شگفت‌آوری مورد بررسی رسمی کمی قرار می‌گیرند.

به گزارش تکناک، به لطف موضوع روبه رشد ممیزی های هوش مصنوعی، این در حال تغییر است. وقتی این ممیزی ها به خوبی کار می کنند، به ما این امکان را می دهند که به طور قابل اعتماد بررسی کنیم که یک سیستم چقدر خوب کار می کند و بفهمیم که چگونه می توان هرگونه سوگیری یا آسیب احتمالی را کاهش داد.

ممیزی که در سال 2018 از سیستم‌های تشخیص چهره تجاری توسط محققان هوش مصنوعی جوی بولاموینی و تیمنیت گبرو انجام گرفت، نشان داد که این سیستم افراد تیره‌پوست را به خوبی افراد سفید پوست تشخیص نمی‌دهد. برای زنان با پوست تیره، میزان خطا تا 34درصد بود.

همانطور که آببا بیرهین محقق هوش مصنوعی در مقاله جدیدی در Nature اشاره می کند، این ممیزی مجموعه ای از کار انتقادی را برانگیخت که سوگیری، تبعیض و ماهیت ظالمانه الگوریتم های تحلیل چهره را آشکار کرده است. امید این است که با انجام این نوع ممیزی ها بر روی سیستم های هوش مصنوعی مختلف، بهتر بتوانیم مشکلات را ریشه یابی کنیم و گفتگوی گسترده تری در مورد اینکه چگونه سیستم های هوش مصنوعی زندگی ما را تحت تاثیر قرار می دهند، داشته باشیم.

مسئولان در حال عقب نشینی هستند و این تا حدی باعث افزایش تقاضا برای بررسی می شود. یک قانون جدید در شهر نیویورک شروع خواهد شد که از ژانویه 2024 تمام ابزارهای استخدامی مبتنی بر هوش مصنوعی را ملزم به ممیزی برای تبعیض می کند. در اتحادیه اروپا، شرکت های بزرگ فناوری باید از سال 2024 ممیزی سالانه سیستم های هوش مصنوعی خود و هوش مصنوعی آینده را انجام دهند. این قانون مستلزم ممیزی سیستم‌های هوش مصنوعی «پرخطر» است.

این یک آرزوی بزرگ است، اما برخی از موانع عظیم وجود دارد. هیچ درک مشترکی در مورد اینکه یک حسابرسی هوش مصنوعی چگونه باید باشد وجود ندارد و افراد کافی با مهارت های مناسب برای انجام آن کار نیست. الکس انگلر، که در موسسه بروکینگز در مورد حاکمیت هوش مصنوعی مطالعه می کند، به من گفت، چند ممیزی که امروز انجام می شود، عمدتاً موقتی هستند و از نظر کیفیت بسیار متفاوت هستند. یکی از مثال‌هایی که او ارائه کرد مربوط به شرکت استخدام هوش مصنوعی HireVue است که در یک

بیانیه مطبوعاتی اشاره کرد که ممیزی خارجی متوجه شد که الگوریتم‌های آن هیچ سوگیری ندارند. به نظر می رسد که این بی معنی است . ممیزی در واقع مدل های شرکت را بررسی نکرده بود و مشمول یک توافق نامه عدم افشا بود، که به این معنی بود که هیچ راهی برای تأیید آنچه که پیدا کرد وجود نداشت. این اساسا چیزی بیش از یک شیرین کاری روابط عمومی نبود.

یکی از راه‌هایی که جامعه هوش مصنوعی در تلاش برای رسیدگی به کمبود ممیزان است، از طریق رقابت‌های پاداش تعصب است، که به روشی مشابه پاداش‌های باگ امنیت سایبری عمل می‌کنند . یعنی از مردم می‌خواهند ابزارهایی برای شناسایی و کاهش تعصبات الگوریتمی در مدل‌های هوش مصنوعی ایجاد کنند. یکی از این رقابت‌ها هفته گذشته راه‌اندازی شد که توسط گروهی از داوطلبان از جمله رهبر اخلاقی هوش مصنوعی توییتر، Rumman Chowdhury، سازماندهی شد. تیم پشت آن امیدوار است که اولین نفر از بسیار باشد.

یکی از راه‌هایی که جامعه هوش مصنوعی در تلاش برای رسیدگی به کمبود حسابرسان هوش مصنوعی است، از طریق رقابت‌های پاداش تعصب است، که به روشی مشابه پاداش‌های باگ امنیت سایبری عمل می‌کنند یعنی از مردم می‌خواهند ابزارهایی برای شناسایی و کاهش تعصبات الگوریتمی در مدل‌های هوش مصنوعی ایجاد کنند. یکی از این رقابت‌ها هفته گذشته راه‌اندازی شد که توسط گروهی از داوطلبان از جمله رهبر اخلاقی هوش مصنوعی توییتر، Rumman Chowdhury، سازماندهی شد. تیم پشت آن امیدواراست که اولین در این رقابت باشد.

ایجاد انگیزه برای افراد برای یادگیری مهارت‌های مورد نیاز برای انجام ممیزی و همچنین ایجاد استانداردهایی برای اینکه ممیزی چگونه باید باشد، با نشان دادن اینکه کدام روش بهتر عمل می‌کند، ایده‌ای خوبی است. در اینجا شما میتوانید اطلاعات بیشتری راجع به آن بخوانید.
رشد این ممیزی ها نشان می دهد که روزی ممکن است شاهد هشدارهایی به سبک بسته های سیگار باشیم مبنی بر اینکه سیستم های هوش مصنوعی می توانند به سلامت و ایمنی شما آسیب بزنند. بخش‌های دیگر، مانند مواد شیمیایی و مواد غذایی، ممیزی منظم دارند تا اطمینان حاصل شود که محصولات برای استفاده ایمن هستند. آیا چنین چیزی می تواند در هوش مصنوعی عادی شود؟
بولاموینی و همکارانش در مقاله‌ای که در ماه ژوئن منتشر شد، استدلال می‌کنند که هر کسی که سیستم‌های هوش مصنوعی را در اختیار دارد و اداره می‌کند باید ملزم به انجام ممیزی‌های منظم باشد. آنها می گویند که شرکت ها باید از نظر قانونی موظف به انتشار ممیزی های هوش مصنوعی خود باشند و زمانی که افراد تحت تصمیم گیری الگوریتمی قرار گرفتند باید مطلع شوند.

به گفته محققان، راه دیگری برای مؤثرتر کردن حسابرسی، ردیابی زمانی است که هوش مصنوعی در دنیای واقعی آسیب می‌زند. چندین تلاش برای مستندسازی آسیب‌های هوش مصنوعی، مانند پایگاه داده آسیب‌پذیری هوش مصنوعی و پایگاه داده‌های حوادث هوش مصنوعی، که توسط محققان و کارآفرینان داوطلب هوش مصنوعی ساخته شده‌اند، وجود دارد. Subho Majumdar از شرکت نرم افزاری Splunk که بنیانگذار پایگاه داده آسیب پذیری هوش مصنوعی و از یکی از سازمان دهندگان مسابقه جایزه تعصب است، می گوید ردیابی خرابی ها می تواند به توسعه دهندگان کمک کند تا درک بهتری از مشکلات یا موارد خرابی غیرعمدی مرتبط با مدل هایی که استفاده می کنند به دست آورند.

اما بولاموینی و همکارانش نوشتند که ممیزی ها به هر جهتی که انجام شود، افرادی که بیشترین آسیب را از آسیب های الگوریتمی می بینند مانند اقلیت های قومی و گروه های به حاشیه رانده شده باید نقش کلیدی در این روند ایفا کنند. من با این موافقم، اگرچه علاقه‌مند کردن افراد معمولی به چیزی مبهمی به نام ممیزی هوش مصنوعی چالش برانگیز خواهد بود. شاید رقابت‌های سرگرم‌کننده و راحت مانند پاداش‌های تعصب، بخشی از راه‌حل باشد.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.