وقتی رهبران OpenAI روز دوشنبه به دفترکار خود باز میگردند، اولین و مهمترین وظیفهشان این است مشکلی که تقریباً باعث نابودی سازمانشان شده، حل کنند.
بهگزارش تکناک و بهنقل از بلومبرگ درحالحاضر هیئتمدیره OpenAI در حال پایهگذاری سیستمی است که سازمانشان را بهسمت مسیری تجاریتر سوق میدهد.
اگرچه این تغییر برای سرمایهگذاران این شرکت خبر خوشی است، با اصول اولیهی سازمان در تضاد است؛ اصولی که بر اولویتدادن به منافع بشر هنگام ساخت ماشینهای هوشمند تأکید میکند.
رهبران OpenAI باید دربارهی افرادی که به هیئتمدیره اضافه میکنند، با وسواس تحقیق و دربارهشان تصمیمگیری کنند و نهفقط برای نشاندادن پیشرفتگرایی خود. آنها به زنان و افرادی از اقلیتهای نژادی و صداهای متنوع دیگر نیاز دارند که بیشترین آسیب را از مدلهای زبانی متعصب دیدهاند و دربارهی این خطرها صحبت میکنند.
سیستمهای یادگیری ماشینی که درکی از جنسیت ندارند، موجب محرومیت زنان از فرصتهای شغلی شدهاند و در حال آمادهسازی برای تقویت استریوتایپهای جنسیتی در محتوای فراوان تولیدشده با هوش مصنوعی هستند که به اینترنت وارد میشود.
واقعیت این است که زنان، تنها حدود یکسوم از تیمهای توسعهدهنده سیستمهای هوش مصنوعی را تشکیل میدهند و در OpenAI این میزان فقط 12درصد است. براساس تحقیق Glass.ai روی پروفایلهای لینکدین در سال 2023، این وخیمتر گزارش شده است. بههمیندلیل، زنان اغلب از منتقدان پرسروصدای هوش مصنوعی محسوب میشوند.
بااینحال، اعتراض آنان اغلب در معرض خاموششدن قرار دارد. یکی از پژوهشهای مؤثر دربارهی خطرهای مدلهای زبانی پیشرفته مقالهی Stochastic Parrots است که در سال 2021 دانشمندان زن درزمینهی هوش مصنوعی نوشتند.
گوگل دو نفر از نویسندگان این مقاله، یعنی تیمنیت گبرو و مارگارت میچل را از شغلشان برکنار کرد. این اقدامات نشاندهنده تعصبات جنسیتی و مشکلاتی است که زنان در عرصهی هوش مصنوعی با آن روبهرو هستند.
از چهار عضو هیئتمدیره OpenAI که هفتهی گذشته به اخراج سم آلتمن، مدیرعامل این شرکت، رأی دادند، دو نفر که درنهایت اخراج شدند، زن بودند: یکی هلن تونر، دانشمند آکادمیک و دیگری تاشا مککالی، کارآفرین حوزهی رباتیک.
واکنشها در شبکههای اجتماعی پس از این اتفاق عمدتاً روی این دو زن متمرکز شد؛ درحالیکه همکاران مرد آنها در این کودتا، یعنی ایلیا ساتسکور، بنیانگذار و دانشمند ارشد OpenAI و آدام دیآنجلو، مدیرعامل شرکت Quora Inc.، عمدتاً با حفظ اعتبار در موقعیتهای شغلی خود باقی ماندند.
گفتنی است که ساتسکور نیز اکنون از هیئتمدیره کنارهگیری کرده است. این موضوع نشان میدهد که چگونه در مواقع بحرانی، زنان در موقعیتهای مدیریتی اغلب با استانداردهای دوگانه مواجه میشوند و پیامدهای نامتناسبی را تجربه میکنند.
چند هفته پیش از رأیگیری هلن تونر برای اخراج سم آلتمن، نام او در مقالهای تحقیقاتی دیده شد که OpenAI را به «بریدن عجولانهی گوشهها» متهم میکرد؛ بهخصوص در زمان تلاش برای راهاندازی ChatGPT در سال گذشته.
گزارشها حاکی از آن است آلتمن که از این موضوع راضی نبود، تلاش کرده بود تونر را از هیئتمدیره حذف کند. درنهایت، تونر و دیگر مدیران دقیقاً همان کاری را علیه آلتمن انجام دادند که او برنامهریزی کرده بود.
آلتمن حتی پیشتر این امکان را ستوده بود که هیئتمدیره میتواند اخراجش کند؛ موضوعی که او اوایل همان سال در Tech Summit بلومبرگ بیان و تأکید کرده بود که این موضوع مهم است.
بااینحال، زمانیکه در محیطی محدود از آلتمن شکایت میکردند، عملکرد هیئتمدیره غیرسازمانیافته بهنظر میرسید و اعضای آن احتمالاً تحتتأثیر تفکر گروهی قرار گرفته بودند. این نشان میدهد که آنها باید نگرانیهای خود را واضحتر و دقیقتر بیان میکردند تا از هرگونه ابهام پرهیز شود.
درحالیکه OpenAI بهدنبال اصلاح ساختار هیئتمدیرهی خود است، باید به اصول اساسی خود وفادار بماند و افرادی را بهعنوان اعضای هیئتمدیره منصوب کند که نهتنها بهعنوان نمایندگان نمادین انتخاب شوند؛ بلکه درک عمیقی از تأثیرات جانبی و خطرهای هوش مصنوعی داشته باشند و در مواقع لزوم بتوانند با این مشکلات مقابله کنند.
افرادی مانند تیمنیت گبرو (Timnit Gebru) و مارگارت میشل (Margaret Mitchell) که در گذشته بهدلیل انتقادات صریح خود از هوش مصنوعی و تبعیضات موجود در آن شناخته شدهاند، گزینههای مناسبی بهنظر میرسند.
همچنین، افزودن دانشمندان و فعالان برجسته در حوزهی هوش مصنوعی نظیر صفیه اوموجا نوبل (Safiya Umoja Noble)، لاتانیا سویینی (Latanya Sweeney)، کیت کراوفورد (Kate Crawford)، ساشا لوچینی (Sasha Luccioni)، ملانی میشل (Melanie Mitchell)، فیفی لی (Fei-Fei Li)، جو بولاموینی (Joy Buolamwini) و مردیث ویتاکر (Meredith Whittaker) میتواند به تنوع و کیفیت فکری هیئتمدیره کمک کند.
این افراد با داشتن تجربه و تخصص در زمینههای مرتبط، میتوانند به OpenAI کمک کنند تا هم به مسئولیت اجتماعیاش عمل کند و هم به پیشرفتهای فناورانهاش ادامه دهد. درضمن، از پیامدهای منفی احتمالی هوش مصنوعی پیشگیری کند.
OpenAI در تلاش برای تقویت هیئتمدیرهی خود با افزودن اعضای جدید، چندین زن برجسته را بهعنوان مدیران موقت احتمالی در نظر گرفته است. براساس گزارشهای بلومبرگ نیوز (Bloomberg News،) لورین پاول جابز، خیّر و میلیاردر و ماریسا مایر، مدیرعامل سابق یاهو، بهعنوان گزینههای احتمالی مطرح شدهاند. بااینحال، بهدلیل نزدیکی زیاد آنها به سم آلتمن، این دو فرد گزینههای مناسب تلقی نشدهاند.
علاوهبراین، کاندولیزا رایس، وزیر امورخارجه سابق ایالات متحده، نیز بررسی شده است؛ اما بهنظر میرسد که نام او نیز رد شده است. این انتخابها نشان میدهد که OpenAI بهدنبال افرادی با تجربه و تأثیرگذاری زیاد در حوزههای خود هستند. آنها همچنین بهدنبال جلوگیری از تعارض منافع یا هرگونه ادراک بیطرفی در انتخابات خود هستند. این گزینهها تلاش OpenAI برای افزایش تنوع و نمایندگی در سطوح کلان تصمیمگیری را نیز نشان میدهد.
این بیانیه نشان میدهد که OpenAI ممکن است راههایی را برای محدودکردن قدرت و تأثیر هیئتمدیرهی خود جستوجو کند تا از تکرار حوادث هفتهی گذشته جلوگیری شود. این احتمال وجود دارد که هیئتمدیرهی جدید به سبک هیئتمدیرههای دیگر شرکتهای فناوری شکل گیرد که ممکن است قدرت چندانی برای ایجاد تغییرات مؤثر نداشته باشند. درست مانند هیئت نظارت فیسبوک که قدرت واقعی روی الگوریتمهای شرکت ندارد یا ارگانهای بازبینی هوش مصنوعی گوگل که عمدتاً کارکنان و مدیران خود تشکیل دادهاند.
هیئتمدیرهی OpenAI تابهامروز در تصمیم خود برای اخراج سم آلتمن کمنظیر عمل کرده است؛ اما این تصمیم ممکن است در حال تغییر باشد. بااینحال، بهعنوان سازندگان برخی از نرمافزارهای پیشرفتهی تاریخ، مهم است که آنها از انتخاب افراد بلهقربانگو پرهیز کنند.
ایلان ماسک اخیراً در توییتری اظهار کرده است باتوجهبه خطرهایی که تمدن انسانی با آن روبهروست، هیئتمدیرهی جدید OpenAI به افرادی نیاز دارد که درک عمیقی از هوش مصنوعی داشته باشند و دربرابر سم آلتمن ایستادگی کنند.
این بیانیه تأکید میکند که اعضای جدید هیئتمدیره باید این کار را نه برای قربانیشدن، بلکه برای ارائهی نظارت مناسب بر کارهای OpenAI انجام دهند. OpenAI باید انتخابهای خود را با دقت انجام دهد تا مطمئن شود که هیئتمدیره بهطور مؤثر به نقش نظارتی خود عمل میکند.