با توجه به اینکه سیستمهای هوش مصنوعی چقدر قدرتمند هستند، و نقشهایی که به طور فزایندهای در کمک به تصمیمگیریهای پرمخاطره در مورد زندگی، خانهها و جوامع ما ایفا میکنند، به طرز شگفتآوری مورد بررسی رسمی کمی قرار میگیرند.
به گزارش تکناک، به لطف موضوع روبه رشد ممیزی های هوش مصنوعی، این در حال تغییر است. وقتی این ممیزی ها به خوبی کار می کنند، به ما این امکان را می دهند که به طور قابل اعتماد بررسی کنیم که یک سیستم چقدر خوب کار می کند و بفهمیم که چگونه می توان هرگونه سوگیری یا آسیب احتمالی را کاهش داد.
ممیزی که در سال 2018 از سیستمهای تشخیص چهره تجاری توسط محققان هوش مصنوعی جوی بولاموینی و تیمنیت گبرو انجام گرفت، نشان داد که این سیستم افراد تیرهپوست را به خوبی افراد سفید پوست تشخیص نمیدهد. برای زنان با پوست تیره، میزان خطا تا 34درصد بود.
همانطور که آببا بیرهین محقق هوش مصنوعی در مقاله جدیدی در Nature اشاره می کند، این ممیزی مجموعه ای از کار انتقادی را برانگیخت که سوگیری، تبعیض و ماهیت ظالمانه الگوریتم های تحلیل چهره را آشکار کرده است. امید این است که با انجام این نوع ممیزی ها بر روی سیستم های هوش مصنوعی مختلف، بهتر بتوانیم مشکلات را ریشه یابی کنیم و گفتگوی گسترده تری در مورد اینکه چگونه سیستم های هوش مصنوعی زندگی ما را تحت تاثیر قرار می دهند، داشته باشیم.
مسئولان در حال عقب نشینی هستند و این تا حدی باعث افزایش تقاضا برای بررسی می شود. یک قانون جدید در شهر نیویورک شروع خواهد شد که از ژانویه 2024 تمام ابزارهای استخدامی مبتنی بر هوش مصنوعی را ملزم به ممیزی برای تبعیض می کند. در اتحادیه اروپا، شرکت های بزرگ فناوری باید از سال 2024 ممیزی سالانه سیستم های هوش مصنوعی خود و هوش مصنوعی آینده را انجام دهند. این قانون مستلزم ممیزی سیستمهای هوش مصنوعی «پرخطر» است.
این یک آرزوی بزرگ است، اما برخی از موانع عظیم وجود دارد. هیچ درک مشترکی در مورد اینکه یک حسابرسی هوش مصنوعی چگونه باید باشد وجود ندارد و افراد کافی با مهارت های مناسب برای انجام آن کار نیست. الکس انگلر، که در موسسه بروکینگز در مورد حاکمیت هوش مصنوعی مطالعه می کند، به من گفت، چند ممیزی که امروز انجام می شود، عمدتاً موقتی هستند و از نظر کیفیت بسیار متفاوت هستند. یکی از مثالهایی که او ارائه کرد مربوط به شرکت استخدام هوش مصنوعی HireVue است که در یک
بیانیه مطبوعاتی اشاره کرد که ممیزی خارجی متوجه شد که الگوریتمهای آن هیچ سوگیری ندارند. به نظر می رسد که این بی معنی است . ممیزی در واقع مدل های شرکت را بررسی نکرده بود و مشمول یک توافق نامه عدم افشا بود، که به این معنی بود که هیچ راهی برای تأیید آنچه که پیدا کرد وجود نداشت. این اساسا چیزی بیش از یک شیرین کاری روابط عمومی نبود.
یکی از راههایی که جامعه هوش مصنوعی در تلاش برای رسیدگی به کمبود ممیزان است، از طریق رقابتهای پاداش تعصب است، که به روشی مشابه پاداشهای باگ امنیت سایبری عمل میکنند . یعنی از مردم میخواهند ابزارهایی برای شناسایی و کاهش تعصبات الگوریتمی در مدلهای هوش مصنوعی ایجاد کنند. یکی از این رقابتها هفته گذشته راهاندازی شد که توسط گروهی از داوطلبان از جمله رهبر اخلاقی هوش مصنوعی توییتر، Rumman Chowdhury، سازماندهی شد. تیم پشت آن امیدوار است که اولین نفر از بسیار باشد.
یکی از راههایی که جامعه هوش مصنوعی در تلاش برای رسیدگی به کمبود حسابرسان هوش مصنوعی است، از طریق رقابتهای پاداش تعصب است، که به روشی مشابه پاداشهای باگ امنیت سایبری عمل میکنند یعنی از مردم میخواهند ابزارهایی برای شناسایی و کاهش تعصبات الگوریتمی در مدلهای هوش مصنوعی ایجاد کنند. یکی از این رقابتها هفته گذشته راهاندازی شد که توسط گروهی از داوطلبان از جمله رهبر اخلاقی هوش مصنوعی توییتر، Rumman Chowdhury، سازماندهی شد. تیم پشت آن امیدواراست که اولین در این رقابت باشد.
ایجاد انگیزه برای افراد برای یادگیری مهارتهای مورد نیاز برای انجام ممیزی و همچنین ایجاد استانداردهایی برای اینکه ممیزی چگونه باید باشد، با نشان دادن اینکه کدام روش بهتر عمل میکند، ایدهای خوبی است. در اینجا شما میتوانید اطلاعات بیشتری راجع به آن بخوانید.
رشد این ممیزی ها نشان می دهد که روزی ممکن است شاهد هشدارهایی به سبک بسته های سیگار باشیم مبنی بر اینکه سیستم های هوش مصنوعی می توانند به سلامت و ایمنی شما آسیب بزنند. بخشهای دیگر، مانند مواد شیمیایی و مواد غذایی، ممیزی منظم دارند تا اطمینان حاصل شود که محصولات برای استفاده ایمن هستند. آیا چنین چیزی می تواند در هوش مصنوعی عادی شود؟
بولاموینی و همکارانش در مقالهای که در ماه ژوئن منتشر شد، استدلال میکنند که هر کسی که سیستمهای هوش مصنوعی را در اختیار دارد و اداره میکند باید ملزم به انجام ممیزیهای منظم باشد. آنها می گویند که شرکت ها باید از نظر قانونی موظف به انتشار ممیزی های هوش مصنوعی خود باشند و زمانی که افراد تحت تصمیم گیری الگوریتمی قرار گرفتند باید مطلع شوند.
به گفته محققان، راه دیگری برای مؤثرتر کردن حسابرسی، ردیابی زمانی است که هوش مصنوعی در دنیای واقعی آسیب میزند. چندین تلاش برای مستندسازی آسیبهای هوش مصنوعی، مانند پایگاه داده آسیبپذیری هوش مصنوعی و پایگاه دادههای حوادث هوش مصنوعی، که توسط محققان و کارآفرینان داوطلب هوش مصنوعی ساخته شدهاند، وجود دارد. Subho Majumdar از شرکت نرم افزاری Splunk که بنیانگذار پایگاه داده آسیب پذیری هوش مصنوعی و از یکی از سازمان دهندگان مسابقه جایزه تعصب است، می گوید ردیابی خرابی ها می تواند به توسعه دهندگان کمک کند تا درک بهتری از مشکلات یا موارد خرابی غیرعمدی مرتبط با مدل هایی که استفاده می کنند به دست آورند.
اما بولاموینی و همکارانش نوشتند که ممیزی ها به هر جهتی که انجام شود، افرادی که بیشترین آسیب را از آسیب های الگوریتمی می بینند مانند اقلیت های قومی و گروه های به حاشیه رانده شده باید نقش کلیدی در این روند ایفا کنند. من با این موافقم، اگرچه علاقهمند کردن افراد معمولی به چیزی مبهمی به نام ممیزی هوش مصنوعی چالش برانگیز خواهد بود. شاید رقابتهای سرگرمکننده و راحت مانند پاداشهای تعصب، بخشی از راهحل باشد.