شرکت OpenAI در حال تأمین منابع مالی پروژهای است که درباره اخلاق در سیستمهای هوش مصنوعی تحقیق میکند.
به گزارش تکناک، OpenAI با اختصاص کمکهزینه مالی به پروژهای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستمهای هوش مصنوعی (AI) برداشته است. براساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمکهزینه به پژوهشگرانی از دانشگاه Duke برای پروژهای با عنوان «تحقیق درباره اخلاق AI» اعطا شده است. این پروژه بخشی از برنامهای سهساله با بودجه یک میلیون دلار است که هدف آن یافتن راهکارهایی برای ارتقای آگاهی اخلاقی در هوش مصنوعی است.
فهرست مطالب
پروژهای تحت هدایت متخصصان برجسته
نئووین مینویسد که رهبری این پروژه برعهده Walter Sinnott-Armstrong، استاد مشهور در حوزه اخلاق عملی و Jana Schaich Borg، یکی از پژوهشگران پیشگام درزمینه تصمیمگیریهای اخلاقی با هوش مصنوعی است. Sinnott-Armstrong یکی از چهرههای برجسته فلسفه است که در حوزههایی نظیر اخلاق کاربردی و روانشناسی اخلاقی و علوم اعصاب فعالیت میکند. تیم او در دانشگاه Duke تاکنون در پروژههای مهمی نظیر طراحی الگوریتمهای تخصیص منصفانه پیوند اعضا مشارکت کردهاند. این الگوریتمها با استفاده از دیدگاههای عمومی و کارشناسی تلاش میکنند تا عدالت در این نوع تصمیمگیریها را بهبود بخشند.
هدف پروژه: پیشبینی قضاوتهای اخلاقی انسان
هدف اصلی این پروژه طراحی الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را در حوزههایی نظیر پزشکی و حقوق و تجارت پیشبینی کنند. بااینحال، مشکلات فراوانی در این مسیر وجود دارد. تجربیات گذشته نشان داده است که توسعه چنین الگوریتمهایی بهدلیل پیچیدگیهای اخلاقی و فرهنگی بسیار دشوار است. برای نمونه، پروژه Ask Delphi که Allen Institute for AI اجرا کرد، نشان داد که حتی در مواجهه با معضلات ساده اخلاقی، سیستمها ممکن است با تغییرات جزئی در سؤالات، جوابهای اخلاقی مشکوک ارائه دهند.
مشکلات اخلاقی پیش رو
یکی از مسائل اساسی در این مسیر، نحوه عملکرد مدلهای یادگیری ماشین است که براساس دادههای آموزشی خود تصمیمگیری میکنند. این دادهها اغلب بازتابدهنده تعصبات و محدودیتهای فرهنگهای غالب هستند. این موضوع سؤالات جدی را درباره توانایی هوش مصنوعی در دستیابی به تصمیمات اخلاقی واقعی مطرح میکند؛ بهویژه با توجه به اینکه اخلاق در جوامع مختلف متنوع است و چهارچوبهای جهانی پذیرفتنی برای آن وجود ندارد.
آینده اخلاق در هوش مصنوعی
اینکه آیا هوش مصنوعی میتواند بهطور معناداری با ارزشهای انسانی هماهنگ شود یا حتی باید چنین هدفی را دنبال کند، همچنان بهعنوان پرسشی بیپاسخ باقی مانده است. بااینهمه درصورت موفقیت این پروژه، نتایج آن میتواند تأثیرات عمیقی بر نحوه اعتماد به ماشینها در تصمیمگیریهای اخلاقی بگذارد.
نتایج این پروژه قرار است تا سال ۲۰۲۵، یعنی پایان دوره این کمکهزینه، مشخص شود. جامعه علمی با اشتیاق منتظر است تا ببیند آیا این تحقیقات میتواند درزمینه دستیابی به «هوش مصنوعی اخلاقی» پیشرفتهای چشمگیری به ارمغان بیاورد یا خیر.