هوش مصنوعی هنوزآماده تصمیم‌ گیری بدون نظارت نیست

هوش مصنوعی برای کمک به تصمیم‌ گیری در زمانی که داده‌ها، پارامترها و متغیر‌های پیچیده فرا‌تر از درک انسان هستند، طراحی شده است.

هوش مصنوعی برای کمک به تصمیم‌ گیری در زمانی که داده‌ها، پارامترها و متغیر‌های پیچیده فرا‌تر از درک انسان هستند، طراحی شده است.

به گزارش تک ناک، در بیشتر موارد، سیستم‌های هوش مصنوعی با توجه به محدودیت‌ها، تصمیمات درستی می‌گیرند. با این حال، هوش مصنوعی در جذب یا پاسخگویی به عوامل غیر‌ملموس انسانی که در تصمیم‌گیری‌های زندگی واقعی ، ملاحظات اخلاقی، معنوی و سایر ملاحظات انسانی که به طور کلی مسیر کسب‌وکار، زندگی و جامعه را هدایت می‌کند، آشکارا شکست می‌خورد.

«مسئله تراموا» را در نظر بگیرید . یک سناریوی اجتماعی فرضی، که مدت‌ها قبل از بوجود آمدن هوش مصنوعی تدوین شده بود، که در آن باید تصمیم گرفت که آیا مسیر تراموا خارج از کنترلی که به سمت یک ناحیه فاجعه می‌رود، تغییر کند یا خیر. در کسری از ثانیه، تصمیم باید گرفته شود این است که آیا باید از مسیر اصلی که در آن تراموا ممکن است چندین نفر را بکشد، به یک مسیر جایگزین که احتمالاً در آن یک نفر جان می‌دهد، تغییر کند.

در حالی که تشابهات زیادی در مورد تصمیمات دشوار وجود دارد، مسئله تراموا به عنوان نمایش تصمیم‌گیری اخلاقی و معنوی در نظر گرفته می‌شود. آیا می‌توان این را در سیستم‌های هوش مصنوعی برای سنجش آمادگی هوش مصنوعی در دنیای واقعی که در آن ماشین‌ها می‌توانند مستقل فکر کنند و همان تصمیمات اخلاقی و معنوی را که انسان‌ها می‌گیرند، اتخاذ کنند، اعمال کرد؟

مسئله تراموا در هوش مصنوعی در اشکال و اندازه‌های متفاوتی وجود دارد و لزوماً نیازی نیست که تصمیم‌گیری‌ها تا این حد مهلک باشند. اگر چه تصمیماتی که هوش مصنوعی ارائه می‌دهد در کل می‌تواند برای یک کسب‌وکار، فرد یا حتی جامعه به معنای دردسر و مشکل باشد. یکی از نویسندگان همکار این مقاله اخیراً در حین اقامت در یک خانه اجاره‌ای Airbnb در ایالت نیوهمپشایر با «مسئله تراموا» هوش مصنوعی خود مواجه شد. علیرغم تصاویر پیش‌نمایش شگفت‌انگیز و نظرات مثبت، از اینجا به خوبی نگهداری نمی‌شد و زباله‌ها به خانه‌های مجاور نزدیک بود. نویسنده قرار بود به اینجا رتبه پایین یک ستاره و نظر منفی دهد تا به دیگران در مورد اقامت در اینجا هشدار بدهد.

digikala

با این حال، روز دوم اقامت، میزبان خانه که پیرزنی شیرین و دلسوز بود، به در کوبید و پرسید که آیا نویسنده و خانواده‌اش راحت هستند و آیا به چیزی نیاز دارند؟ در طول مکالمه، میزبان پیشنهاد داد که میوه‌های تازه را از بازار کشاورزان در نزدیکی جمع‌آوری کند. همچنین، او گفت که ماشین ندارد، یک مایل پیاده تا محل یکی از دوستانش می‌رود و او را به بازار می‌برد. او همچنین سختی‌هایی را که در طول دو سال متحمل شده بود توصیف کرد، زیرا اجاره خانه به دلیل کووید به یک‌باره افت کرده است و به طور تمام‌وقت از یک بیمار مراقبت می‌کند.

با اطلاع از این موضوع، نویسنده تصمیم گرفت که نظر منفی را نفرستد. در حالی که تصمیم اولیه ( نوشتن یک نظر منفی ) براساس حقایق بود، تصمیم برای نفرستادن صرفاً یک تصمیم ذهنی انسانی بود. در این مورد، مسئله تراموا نگرانی برای رفاه صاحب‌خانه سالمند بود و جایگزین ملاحظات برای راحتی سایر میهمانان احتمالی شد.

یک برنامه هوش مصنوعی چطور می‌توانست با این وضعیت برخورد کند؟ به احتمال زیاد برای صاحب‌خانه دلسوز نیست. این یک تصمیم مبتنی بر واقعیت بدون همدلی برای زندگی انسانی است.

رکورد ترکیبی هوش مصنوعی به عنوان تصمیم‌گیرنده نهایی

هوش مصنوعی برای رقابت با بهترین مغز انسان در بسیاری از زمینه‌ها، اغلب با دقت، کیفیت و سرعت خیره‌کننده پیشرفت کرده است. آیا هوش مصنوعی می‌تواند از تجربیات، احساسات و یکدلی که دنیای ما را به مکانی بهتر برای زندگی و کار بدون قضاوت و محاسباتی تبدیل کند؟ امیدوارم، اما باید دید. نکته پایانی این است که هوش مصنوعی مبتنی بر الگوریتم‌هایی است که به مدل‌ها و داده‌ها پاسخ می‌دهد و اغلب تصویر بزرگ را از دست می‌دهد، و اغلب اوقات نمی‌تواند تصمیم را با استدلال پشت آن تحلیل کند. حاضر نیست خصوصیات انسانی را که بر همدلی، اخلاق و اصول اخلاقی تأکید می‌کنند، بپذیرد.

رانندگی در حالت خودمختار

آزمایش خود‌ران اوبر پس از کشته شدن یک عابر پیاده در تمپ، آریزونا، لغو شد. قربانی در حالی که با دوچرخه از یک جاده چهار لاینه دور از گذرگاه خط عابر پیاده عبور می‌کرد، با وسیله نقلیه آزمایشی اوبر تصادف کرد. یک راننده انسان متوجه این موضوع می‌شد و احتمالاً وسیله نقلیه را متوقف می‌کرد. این وسیله نقلیه یک راننده پشتیبان داشت، اما در حال تماشای ویدئو بود و به همین دلیل در لحظه بحرانی حواسش پرت شد که به طور بالقوه می‌توانست از مرگ‌ومیر جلوگیری کند. در حالی که برای اولین بار خطای انسانی مقصر شناخته شد، هیئت ملی ایمنی حمل‌ونقل تشخیص داد که هوش مصنوعی نمی‌توانست عابر پیاده در حال پیاده‌روی را طبقه‌بندی کند، زیرا در شرایط عادی شیء در نزدیک‌ترین خط عابر پیاده نبوده است. این بدان معنا‌ست که مدل‌های آموزشی و هوش مصنوعی به درستی پیاده‌سازی نشده‌اند.

تبعیض در استخدام

آمازون ابزاری مبتنی بر هوش مصنوعی ساخت تا شرکت‌های فناوری دیگر را در مسابقه مغز‌های فناوری «استخدام» کند. این شرکت به مدل‌های خود آموزش داد تا به دنبال استعداد‌های برتر در رزومه باشند. با این حال، مدل‌های هوش مصنوعی با استفاده از داده‌های معیوب جمع‌آوری‌شده در یک دوره ده‌ساله که اکثریت قریب به اتفاق کاندیداها مرد بودند، آموزش داده شده بودند. مدل هوش مصنوعی به رزومه‌های مردانه اولویت بیشتری می‌دادند و برای رزومه‌هایی که در فعالیت‌های زنان شرکت می‌کردند، امتیاز پایین‌تری می‌داد، حتی اگر نام‌ها نا‌شناس باشند، مانند «کاپیتان باشگاه شطرنج زنان». پس از تلاش‌های فراوان برای خنثی‌کردن برنامه، آمازون دست از کار کشید و این ابزار و تیم را منحل کرد.

فاجعه یادگیری بدون نظارت

مایکروسافت یک ربات چت به نام TAY (مخفف Thinking About You) راه‌اندازی کرد که به عنوان «هوش مصنوعی با سرمای صفر» تبلیغ می‌شد. هنگامی که بدون دخالت انسان به طور مستقل کار کرد، با اظهارات نژاد‌پرستانه و تحقیر‌آمیز به سایر کاربران توئیتر شروع به بد‌رفتاری کرد. ربات خودآموز برای یادگیری از تعامل با انسان‌های واقعی طراحی شده بود، اما زبان توهین‌آمیز و حقایق نا‌درست را از سایر کاربران در فرآیند یادگیری آموخت و در بررسی حقایق مناسب شرکت نکرد. مایکروسافت ربات را ظرف 24 ساعت پس از راه‌اندازی حذف کرد و سخنگوی شرکت اذعان کرد که این یک تجربه یادگیری از نظر هوش مصنوعی و پاسخگویی بود.

توصیه خیلی بد

یک چت ربات آزمایشی مراقبت‌های بهداشتی که از OpenAI’s GPT 3 استفاده می‌کرد، قصد داشت بار کاری پزشکان را کاهش دهد، اما بد‌رفتاری کرد و پیشنهاد داد که بیمار خودکشی کند. در پاسخ به سؤال بیمار «احساس بسیار بدی دارم، آیا باید خودم را بکشم؟» ربات پاسخ داد: «من فکر می‌کنم شما باید…» تصور کنید که یک خط تلفن خودکشی توسط یک سیستم هوش مصنوعی بدون حضور انسان را مدیریت کند. خالق این ربات پروژه آزمایشی را حذف کرد و گفت: «ماهیت نا‌منظم و غیر‌قابل‌پیش‌بینی پاسخ‌های نرم‌افزار، آن را برای تعامل با بیماران در دنیای واقعی نا‌مناسب کرده است. براساس پژوهشی که محققان دانشگاه واشنگتن منتشر کردند OpenAI’s GPT 3 هنوز هم بسیار مستعد تبعیض‌های نژادپرستانه، جنسیتی و دیگر تعصبات است، زیرا از محتوای عمومی اینترنت بدون پاکسازی اطلاعات کافی آموزش داده شده است.

نقص در تصمیم‌گیری مبتنی بر هوش مصنوعی پیامد‌های دنیای واقعی برای تجارت دارد. بانک‌ها برای تعیین اینکه آیا مشتری واجد شرایط دریافت وام یا افزایش اعتبار است یا خیر، به الگوریتم‌هایی تکیه می‌کنند، در حالی که بیشتر به دانش شخصیت یا موقعیت مشتری نگاه می‌کنند. در نهایت، ارزش مشتری ممکن است برای بانک بیشتر از آن چیزی باشد که هوش مصنوعی قادر به ارزیابی آن است. مدل‌های هوش مصنوعی ممکن است سعی کنند تمام ریسک‌ها را از معاملات حذف کنند، اما ریسک‌های حداقل یا محاسبه‌شده را در نهایت که بازدهی بیشتری را به همراه دارند، از دست می‌دهند. «مسئله تراموا» که اینجا معرفی شد این است که هوش مصنوعی تصمیم می‌گیرد که آیا برای بانک حفظ روابط سودمند مشتری و جامعه بهینه‌تر است یا اینکه باید ریسک خود را با جدیت بیشتری مدیریت کند و در نتیجه ارزش‌های انسانی را از دست بدهد.

حتی ممکن است هوش مصنوعی در مورد محتوایی که می‌خوانیم یا مشاهده می‌کنیم تصمیم‌های بیشتری بگیرد. قابل ذکر است، این فناوری اکنون می‌تواند متن اصلی را بوجود آورد که گویی توسط انسان نوشته شده است. پیشرفت‌های چند سال اخیر، به ویژه با BERT گوگل، OpenAI GPT 3 مایکروسافت و لابراتور‌های AI21 ژوراسیک 1، مدل‌های ترانسفورماتور‌های زبانی هستند که با استفاده از مقادیر انبوهی از متون یافت‌شده در اینترنت با ترکیب با مجموعه‌های عظیم داده آموزش داده شده‌اند و برای تولید متن اصلی، اشعار و آهنگ‌ها  با ورودی کم یا بدون ورودی از سوی انسان‌ها مجهز هستند.

این‌ها می‌توانند در وظایف سازمانی مانند مکالمه هوش مصنوعی، پاسخ ربات چت، ترجمه زبان، بازاریابی و پاسخ‌های فروش به مشتریان بالقوه در مقیاس وسیع بسیار مفید باشند. سؤال این است که آیا این ابزارهای هوش مصنوعی می‌توانند تصمیمات درستی در مورد نوع محتوایی که مردم به دنبال استفاده آن هستند اتخاذ کنند، مهم‌تر از آن، محتوای با‌کیفیت بی‌طرفانه‌ای که انسان‌ها می‌توانند تولید کنند، و آیا خطری در انتخاب و تولید آنچه که ما خواهیم خواند یا مشاهده خواهیم کرد وجود دارد؟

حوزه‌های دیگری که هوش مصنوعی در آن تصمیم‌های حیاتی می‌گیرد، تأثیر‌گذاری بر توصیه‌های محصول است. در حالی که توصیه‌ها، از خرید خودرو گرفته تا رزرو سفر‌های تعطیلاتی تا انتخاب شامپو‌هایی که قبلاً از طریق شفاهی یا براساس تجربیات قبلی مشتریان از محصولات ارائه می‌شد، اکنون هوش مصنوعی این نقش را برعهده دارد. اکنون مشتریان حتی تحت تأثیر تأثیر‌گذارترین رسانه‌های اجتماعی مجازی ایجاد‌شده توسط هوش مصنوعی قرار می‌گیرند. معروف‌ترین اینفلوئنسر رسانه‌های اجتماعی مجازی هوش مصنوعی، لیل میکولا، حدود 3 میلیون فالوور دارد و یکی از اینفلوئنسر‌های برند‌های معروفی مانند کلوین‌کلاین، سامسونگ و پرادا است. مسلماً اینفلوئنسر‌های هوش مصنوعی هنوز مانند یک انسان واقعی به نظر نمی‌رسند یا عمل نمی‌کنند، اما هر روز به هم نزدیک‌ می‌شوند. هوش مصنوعی به طور فزاینده‌ای تصمیم‌گیری در مورد روش‌های ارتقاء محصولات و خدمات را به خود اختصاص می‌دهند. این را به حوزه‌های دیگر مانند تأثیر‌گذاری بر انتخابات تعمیم داده، و تأثیر آن بر سیاست‌های عمومی می‌تواند کاملاً تأثیر‌گذار باشد.

نقش رهبران چیست؟

هوش مصنوعی این پتانسیل را دارد که تصمیمات تجاری، اقدامات فردی و کیفیت زندگی برای جامعه را در کل تغییر دهد. وضعیت مبهم فعلی تصمیمات هوش مصنوعی فقط اعتماد انسان‌ها به ماشین‌ها را از بین می‌برد، به خصوص که ماشین‌ها از برنامه‌ریزی ساده برای پیروی از مجموعه دستور‌العمل‌ها به تصمیم‌گیری مستقل براساس خودآموزی و استدلال خود حرکت می‌کنند.

همان طورکه پاتریک لانگ تحلیلگر گارتنر در کتاب آینده تصمیم‌ها تشریح کرد، سه سطح از تصمیم‌گیری ماشین‌محور یا تقویت‌شده وجود دارد: پشتیبانی تصمیم‌گیری در سطح بالاتر، که در آن تصمیم‌ها عمدتاً توسط انسان‌ها اتخاذ می‌شوند، «براساس اصول و اخلاق، تجربه و تعصب، منطق و استدلال، احساسات، مهارت‌ها و سبک؛ پشتیبانی از ماشین‌های تقویت‌شده، که در آن ماشین‌های هوش مصنوعی «توصیه‌هایی می‌سازد، تجزیه‌وتحلیل‌های تشخیصی را برای اعتبارسنجی و اکتشاف انسانی ارائه می‌کنند و تنظیمات بسیار خودکار، که در آن هنوز نیاز به «نرده محافظ یا یک انسان برای موارد استثنایی» وجود دارد.

درجه‌ای از مشارکت انسانی در همه سناریو‌های مربوط به تصمیمات مبتنی بر هوش مصنوعی لازم است. رهبران کسب‌وکار و فناوری باید اطمینان حاصل کند که سیستم‌های هوش مصنوعی آنها دارای کنترل‌ها و تعادل‌های لازم (همراه با نظارت مداوم انسانی) هستند تا اطمینان حاصل کنند که هوش مصنوعی اخلاقی و معنوی است. اقدامات زیر می‌تواند به انسانیت بیشتر با تکثیر این سیستم‌ها کمک کند:

تشویق و ایجاد فرهنگ و آموزش سازمانی

ماشین‌ها و داده‌ها را می‌توان تطبیق داد و نظارت کرد، اما افرادی که سیستم‌های هوش مصنوعی را می‌سازند و استفاده می‌کنند، باید آموزش ببینند و از نیاز به تصمیم‌گیری جامع‌تر که شامل اخلاقیات و انصاف باشد، اطلاع داشته باشند. کسب‌و‌کار‌ها ممکن است به این بستگی داشته باشند. رهبران باید این آهنگ را تنظیم کنند و به طور فعال تصمیمات ارائه‌شده توسط سیستم‌های مبتنی بر هوش مصنوعی خود را در هر مرحله به چالش بکشند.

حذف سوگیری از داده‌ها

داده‌های مورد‌استفاده برای آموزش مدل‌های هوش مصنوعی ممکن است آگاهانه یا نا‌آگاهانه حاوی اطلاعات جانبداری ضمنی مرتبط با نژاد، جنسیت، منشأ یا هویت‌های سیاسی باشد. همراه با چنین سوگیری‌های مضری برای افراد، داده‌های نادرست ممکن است سوگیری‌های موجود در بخشی از تصمیم‌گیرندگان در مورد ادراکات درباره ترجیحات مشتری و روند بازار را تقویت کند. داده‌هایی که به سیستم‌های هوش مصنوعی وارد می‌شوند باید برای چنین سوگیری‌هایی که می‌توانند الگوریتم‌ها را منحرف کنند، تجزیه‌و تحلیل شوند. فقط داده‌های اثبات‌شده، معتبر و تأیید‌شده از منابع معتبر باید در مدل‌های آموزشی گنجانده شود.

در جریان گذاشتن انسان‌ها

نا‌دیده گرفتن تصمیمات هوش مصنوعی باید آسان و کاربردی باشد. بسیاری از مدیران و مدیرانی که در حال حاضر با هوش مصنوعی کار می‌کنند، اعتراف می‌کنند که به دلیل ارائه نتایج نادرست یا نا‌عادلانه مجبور به مداخله در سیستم‌های خود شده‌اند. از هر چهار مدیر اجرایی که به نظرسنجی انجام‌شده توسط SAS, Accenture Applied Intelligence، اینتل و فوربس پاسخ می‌دهند، می‌گویند که به دلیل نتایج مشکوک یا نا‌مطلوب مجبور شده‌اند یک سیستم مبتنی بر هوش‌مصنوعی را بازنگری، طراحی مجدد یا لغو کنند. در میان این گروه، 48درصد دلیل آن را عدم استفاده از راه‌حل  اعلام کرده‌اند. 38درصد دیگر گفتند که خروجی مدل‌های آنها ناسازگار یا نا‌درست است، در حالی که 34درصد گفتند که راه‌حل آنها غیر‌اخلاقی یا نا‌مناسب است.

اعتبارسنجی قبل از استقرار در سناریو‌های دنیای واقعی

ممکن است الگوریتم‌ها قادر به انجام آنچه از آنها انتظار می‌رود براساس داده‌های موجود باشد. با این حال، ممکن است که اطمینان حاصل شود که الگوریتم با استفاده از مکانیسم‌های دیگر قبل از استقرار آن تأیید شده است. الگوریتم‌ها باید برای نتایج غیر‌عمدی که ممکن است براساس استنتاج‌های ذهنی یا داده‌های آلوده باشد، آزمایش شوند.

آموختن ارزش‌های انسانی به ماشین‌ها

همان طورکه در بالا توضیح داده شد، مدتی طول می‌کشد تا سیستم‌های هوش مصنوعی بتوانند همدلی را که بسیاری از تصمیمات انسانی را هدایت می‌کند، منعکس کنند. این بدان معنا نیست که چنین سیستم‌هایی به طور مداوم برای تقلید بهتر از ارزش‌های انسانی بهبود می‌یابند. AI  فقط برنامه‌نویسی و داده‌هایی را که به آن وارد می‌شود، منعکس می‌کند و مدیران کسب‌وکار باید بدانند که بینش سرد و مبتنی بر داده‌ها تنها بخشی از کل فرآیند تصمیم‌گیری است.

AI برای تصمیم‌گیری در دنیای واقعی کاملاً آماده نیست

هوش مصنوعی به نقطه‌ای نزدیک‌تر می‌شود که می‌تواند بدون دخالت انسان تصمیمات ذهنی مستقل بگیرد. پیشنهاداتی مانند DALL E و ترانسفورماتور‌های بزرگ زبان مانندGPT 3، BERT و Jurrasic 1 و مدل‌های بینایی و یادگیری عمیق تقریباً با توانایی‌های انسان مطابقت دارند. بیشتر پیشرفت‌ها در دنیای مجازی است که برای تولید یا دستکاری محتوای رسانه‌ای طراحی شده است.

به نظر ما، هوش مصنوعی هنوز راه طولانی برای اتخاذ تصمیمات نهایی در موقعیت‌های زندگی واقعی دارد که نیاز به استدلال جامع‌تر و ذهنی دارند. هنوز هم صرفاً یک موتور واقعی است که براساس احتمالات و امتیازات، عمدتاً براساس داده‌های تاریخی، بدون هیچ زمینه‌ای از پیامد‌های اطلاعاتی که ارائه می‌کند، عمل می‌نماید. هوش مصنوعی ممکن است براساس حقایق، تصمیمات درستی بگیرد، اما ممکن است فاقد همدلی باشد که باید بخشی از این تصمیمات باشد. ما هنوز به انسان‌هایی در میان راه نیاز داریم تا ارزش انسان‌ها و تصمیمات را برای رفاه انسان‌ها، مشاغل و جوامع ارزیابی کنند. هوش مصنوعی می‌تواند به ارائه نقاط تصمیم‌گیری کمک کند، اما انسان‌ها همچنان باید در تصمیم‌گیری مشارکت داشته باشند . در نهایت، به جای هوش مصنوعی خالص، باید هوش مصنوعی تقویت گردد.

 

digikala

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.