هوش مصنوعی برای کمک به تصمیم گیری در زمانی که دادهها، پارامترها و متغیرهای پیچیده فراتر از درک انسان هستند، طراحی شده است.
به گزارش تک ناک، در بیشتر موارد، سیستمهای هوش مصنوعی با توجه به محدودیتها، تصمیمات درستی میگیرند. با این حال، هوش مصنوعی در جذب یا پاسخگویی به عوامل غیرملموس انسانی که در تصمیمگیریهای زندگی واقعی ، ملاحظات اخلاقی، معنوی و سایر ملاحظات انسانی که به طور کلی مسیر کسبوکار، زندگی و جامعه را هدایت میکند، آشکارا شکست میخورد.
«مسئله تراموا» را در نظر بگیرید . یک سناریوی اجتماعی فرضی، که مدتها قبل از بوجود آمدن هوش مصنوعی تدوین شده بود، که در آن باید تصمیم گرفت که آیا مسیر تراموا خارج از کنترلی که به سمت یک ناحیه فاجعه میرود، تغییر کند یا خیر. در کسری از ثانیه، تصمیم باید گرفته شود این است که آیا باید از مسیر اصلی که در آن تراموا ممکن است چندین نفر را بکشد، به یک مسیر جایگزین که احتمالاً در آن یک نفر جان میدهد، تغییر کند.
در حالی که تشابهات زیادی در مورد تصمیمات دشوار وجود دارد، مسئله تراموا به عنوان نمایش تصمیمگیری اخلاقی و معنوی در نظر گرفته میشود. آیا میتوان این را در سیستمهای هوش مصنوعی برای سنجش آمادگی هوش مصنوعی در دنیای واقعی که در آن ماشینها میتوانند مستقل فکر کنند و همان تصمیمات اخلاقی و معنوی را که انسانها میگیرند، اتخاذ کنند، اعمال کرد؟
مسئله تراموا در هوش مصنوعی در اشکال و اندازههای متفاوتی وجود دارد و لزوماً نیازی نیست که تصمیمگیریها تا این حد مهلک باشند. اگر چه تصمیماتی که هوش مصنوعی ارائه میدهد در کل میتواند برای یک کسبوکار، فرد یا حتی جامعه به معنای دردسر و مشکل باشد. یکی از نویسندگان همکار این مقاله اخیراً در حین اقامت در یک خانه اجارهای Airbnb در ایالت نیوهمپشایر با «مسئله تراموا» هوش مصنوعی خود مواجه شد. علیرغم تصاویر پیشنمایش شگفتانگیز و نظرات مثبت، از اینجا به خوبی نگهداری نمیشد و زبالهها به خانههای مجاور نزدیک بود. نویسنده قرار بود به اینجا رتبه پایین یک ستاره و نظر منفی دهد تا به دیگران در مورد اقامت در اینجا هشدار بدهد.
با این حال، روز دوم اقامت، میزبان خانه که پیرزنی شیرین و دلسوز بود، به در کوبید و پرسید که آیا نویسنده و خانوادهاش راحت هستند و آیا به چیزی نیاز دارند؟ در طول مکالمه، میزبان پیشنهاد داد که میوههای تازه را از بازار کشاورزان در نزدیکی جمعآوری کند. همچنین، او گفت که ماشین ندارد، یک مایل پیاده تا محل یکی از دوستانش میرود و او را به بازار میبرد. او همچنین سختیهایی را که در طول دو سال متحمل شده بود توصیف کرد، زیرا اجاره خانه به دلیل کووید به یکباره افت کرده است و به طور تماموقت از یک بیمار مراقبت میکند.
با اطلاع از این موضوع، نویسنده تصمیم گرفت که نظر منفی را نفرستد. در حالی که تصمیم اولیه ( نوشتن یک نظر منفی ) براساس حقایق بود، تصمیم برای نفرستادن صرفاً یک تصمیم ذهنی انسانی بود. در این مورد، مسئله تراموا نگرانی برای رفاه صاحبخانه سالمند بود و جایگزین ملاحظات برای راحتی سایر میهمانان احتمالی شد.
یک برنامه هوش مصنوعی چطور میتوانست با این وضعیت برخورد کند؟ به احتمال زیاد برای صاحبخانه دلسوز نیست. این یک تصمیم مبتنی بر واقعیت بدون همدلی برای زندگی انسانی است.
رکورد ترکیبی هوش مصنوعی به عنوان تصمیمگیرنده نهایی
هوش مصنوعی برای رقابت با بهترین مغز انسان در بسیاری از زمینهها، اغلب با دقت، کیفیت و سرعت خیرهکننده پیشرفت کرده است. آیا هوش مصنوعی میتواند از تجربیات، احساسات و یکدلی که دنیای ما را به مکانی بهتر برای زندگی و کار بدون قضاوت و محاسباتی تبدیل کند؟ امیدوارم، اما باید دید. نکته پایانی این است که هوش مصنوعی مبتنی بر الگوریتمهایی است که به مدلها و دادهها پاسخ میدهد و اغلب تصویر بزرگ را از دست میدهد، و اغلب اوقات نمیتواند تصمیم را با استدلال پشت آن تحلیل کند. حاضر نیست خصوصیات انسانی را که بر همدلی، اخلاق و اصول اخلاقی تأکید میکنند، بپذیرد.
رانندگی در حالت خودمختار
آزمایش خودران اوبر پس از کشته شدن یک عابر پیاده در تمپ، آریزونا، لغو شد. قربانی در حالی که با دوچرخه از یک جاده چهار لاینه دور از گذرگاه خط عابر پیاده عبور میکرد، با وسیله نقلیه آزمایشی اوبر تصادف کرد. یک راننده انسان متوجه این موضوع میشد و احتمالاً وسیله نقلیه را متوقف میکرد. این وسیله نقلیه یک راننده پشتیبان داشت، اما در حال تماشای ویدئو بود و به همین دلیل در لحظه بحرانی حواسش پرت شد که به طور بالقوه میتوانست از مرگومیر جلوگیری کند. در حالی که برای اولین بار خطای انسانی مقصر شناخته شد، هیئت ملی ایمنی حملونقل تشخیص داد که هوش مصنوعی نمیتوانست عابر پیاده در حال پیادهروی را طبقهبندی کند، زیرا در شرایط عادی شیء در نزدیکترین خط عابر پیاده نبوده است. این بدان معناست که مدلهای آموزشی و هوش مصنوعی به درستی پیادهسازی نشدهاند.
تبعیض در استخدام
آمازون ابزاری مبتنی بر هوش مصنوعی ساخت تا شرکتهای فناوری دیگر را در مسابقه مغزهای فناوری «استخدام» کند. این شرکت به مدلهای خود آموزش داد تا به دنبال استعدادهای برتر در رزومه باشند. با این حال، مدلهای هوش مصنوعی با استفاده از دادههای معیوب جمعآوریشده در یک دوره دهساله که اکثریت قریب به اتفاق کاندیداها مرد بودند، آموزش داده شده بودند. مدل هوش مصنوعی به رزومههای مردانه اولویت بیشتری میدادند و برای رزومههایی که در فعالیتهای زنان شرکت میکردند، امتیاز پایینتری میداد، حتی اگر نامها ناشناس باشند، مانند «کاپیتان باشگاه شطرنج زنان». پس از تلاشهای فراوان برای خنثیکردن برنامه، آمازون دست از کار کشید و این ابزار و تیم را منحل کرد.
فاجعه یادگیری بدون نظارت
مایکروسافت یک ربات چت به نام TAY (مخفف Thinking About You) راهاندازی کرد که به عنوان «هوش مصنوعی با سرمای صفر» تبلیغ میشد. هنگامی که بدون دخالت انسان به طور مستقل کار کرد، با اظهارات نژادپرستانه و تحقیرآمیز به سایر کاربران توئیتر شروع به بدرفتاری کرد. ربات خودآموز برای یادگیری از تعامل با انسانهای واقعی طراحی شده بود، اما زبان توهینآمیز و حقایق نادرست را از سایر کاربران در فرآیند یادگیری آموخت و در بررسی حقایق مناسب شرکت نکرد. مایکروسافت ربات را ظرف 24 ساعت پس از راهاندازی حذف کرد و سخنگوی شرکت اذعان کرد که این یک تجربه یادگیری از نظر هوش مصنوعی و پاسخگویی بود.
توصیه خیلی بد
یک چت ربات آزمایشی مراقبتهای بهداشتی که از OpenAI’s GPT 3 استفاده میکرد، قصد داشت بار کاری پزشکان را کاهش دهد، اما بدرفتاری کرد و پیشنهاد داد که بیمار خودکشی کند. در پاسخ به سؤال بیمار «احساس بسیار بدی دارم، آیا باید خودم را بکشم؟» ربات پاسخ داد: «من فکر میکنم شما باید…» تصور کنید که یک خط تلفن خودکشی توسط یک سیستم هوش مصنوعی بدون حضور انسان را مدیریت کند. خالق این ربات پروژه آزمایشی را حذف کرد و گفت: «ماهیت نامنظم و غیرقابلپیشبینی پاسخهای نرمافزار، آن را برای تعامل با بیماران در دنیای واقعی نامناسب کرده است. براساس پژوهشی که محققان دانشگاه واشنگتن منتشر کردند OpenAI’s GPT 3 هنوز هم بسیار مستعد تبعیضهای نژادپرستانه، جنسیتی و دیگر تعصبات است، زیرا از محتوای عمومی اینترنت بدون پاکسازی اطلاعات کافی آموزش داده شده است.
نقص در تصمیمگیری مبتنی بر هوش مصنوعی پیامدهای دنیای واقعی برای تجارت دارد. بانکها برای تعیین اینکه آیا مشتری واجد شرایط دریافت وام یا افزایش اعتبار است یا خیر، به الگوریتمهایی تکیه میکنند، در حالی که بیشتر به دانش شخصیت یا موقعیت مشتری نگاه میکنند. در نهایت، ارزش مشتری ممکن است برای بانک بیشتر از آن چیزی باشد که هوش مصنوعی قادر به ارزیابی آن است. مدلهای هوش مصنوعی ممکن است سعی کنند تمام ریسکها را از معاملات حذف کنند، اما ریسکهای حداقل یا محاسبهشده را در نهایت که بازدهی بیشتری را به همراه دارند، از دست میدهند. «مسئله تراموا» که اینجا معرفی شد این است که هوش مصنوعی تصمیم میگیرد که آیا برای بانک حفظ روابط سودمند مشتری و جامعه بهینهتر است یا اینکه باید ریسک خود را با جدیت بیشتری مدیریت کند و در نتیجه ارزشهای انسانی را از دست بدهد.
حتی ممکن است هوش مصنوعی در مورد محتوایی که میخوانیم یا مشاهده میکنیم تصمیمهای بیشتری بگیرد. قابل ذکر است، این فناوری اکنون میتواند متن اصلی را بوجود آورد که گویی توسط انسان نوشته شده است. پیشرفتهای چند سال اخیر، به ویژه با BERT گوگل، OpenAI GPT 3 مایکروسافت و لابراتورهای AI21 ژوراسیک 1، مدلهای ترانسفورماتورهای زبانی هستند که با استفاده از مقادیر انبوهی از متون یافتشده در اینترنت با ترکیب با مجموعههای عظیم داده آموزش داده شدهاند و برای تولید متن اصلی، اشعار و آهنگها با ورودی کم یا بدون ورودی از سوی انسانها مجهز هستند.
اینها میتوانند در وظایف سازمانی مانند مکالمه هوش مصنوعی، پاسخ ربات چت، ترجمه زبان، بازاریابی و پاسخهای فروش به مشتریان بالقوه در مقیاس وسیع بسیار مفید باشند. سؤال این است که آیا این ابزارهای هوش مصنوعی میتوانند تصمیمات درستی در مورد نوع محتوایی که مردم به دنبال استفاده آن هستند اتخاذ کنند، مهمتر از آن، محتوای باکیفیت بیطرفانهای که انسانها میتوانند تولید کنند، و آیا خطری در انتخاب و تولید آنچه که ما خواهیم خواند یا مشاهده خواهیم کرد وجود دارد؟
حوزههای دیگری که هوش مصنوعی در آن تصمیمهای حیاتی میگیرد، تأثیرگذاری بر توصیههای محصول است. در حالی که توصیهها، از خرید خودرو گرفته تا رزرو سفرهای تعطیلاتی تا انتخاب شامپوهایی که قبلاً از طریق شفاهی یا براساس تجربیات قبلی مشتریان از محصولات ارائه میشد، اکنون هوش مصنوعی این نقش را برعهده دارد. اکنون مشتریان حتی تحت تأثیر تأثیرگذارترین رسانههای اجتماعی مجازی ایجادشده توسط هوش مصنوعی قرار میگیرند. معروفترین اینفلوئنسر رسانههای اجتماعی مجازی هوش مصنوعی، لیل میکولا، حدود 3 میلیون فالوور دارد و یکی از اینفلوئنسرهای برندهای معروفی مانند کلوینکلاین، سامسونگ و پرادا است. مسلماً اینفلوئنسرهای هوش مصنوعی هنوز مانند یک انسان واقعی به نظر نمیرسند یا عمل نمیکنند، اما هر روز به هم نزدیک میشوند. هوش مصنوعی به طور فزایندهای تصمیمگیری در مورد روشهای ارتقاء محصولات و خدمات را به خود اختصاص میدهند. این را به حوزههای دیگر مانند تأثیرگذاری بر انتخابات تعمیم داده، و تأثیر آن بر سیاستهای عمومی میتواند کاملاً تأثیرگذار باشد.
نقش رهبران چیست؟
هوش مصنوعی این پتانسیل را دارد که تصمیمات تجاری، اقدامات فردی و کیفیت زندگی برای جامعه را در کل تغییر دهد. وضعیت مبهم فعلی تصمیمات هوش مصنوعی فقط اعتماد انسانها به ماشینها را از بین میبرد، به خصوص که ماشینها از برنامهریزی ساده برای پیروی از مجموعه دستورالعملها به تصمیمگیری مستقل براساس خودآموزی و استدلال خود حرکت میکنند.
همان طورکه پاتریک لانگ تحلیلگر گارتنر در کتاب آینده تصمیمها تشریح کرد، سه سطح از تصمیمگیری ماشینمحور یا تقویتشده وجود دارد: پشتیبانی تصمیمگیری در سطح بالاتر، که در آن تصمیمها عمدتاً توسط انسانها اتخاذ میشوند، «براساس اصول و اخلاق، تجربه و تعصب، منطق و استدلال، احساسات، مهارتها و سبک؛ پشتیبانی از ماشینهای تقویتشده، که در آن ماشینهای هوش مصنوعی «توصیههایی میسازد، تجزیهوتحلیلهای تشخیصی را برای اعتبارسنجی و اکتشاف انسانی ارائه میکنند و تنظیمات بسیار خودکار، که در آن هنوز نیاز به «نرده محافظ یا یک انسان برای موارد استثنایی» وجود دارد.
درجهای از مشارکت انسانی در همه سناریوهای مربوط به تصمیمات مبتنی بر هوش مصنوعی لازم است. رهبران کسبوکار و فناوری باید اطمینان حاصل کند که سیستمهای هوش مصنوعی آنها دارای کنترلها و تعادلهای لازم (همراه با نظارت مداوم انسانی) هستند تا اطمینان حاصل کنند که هوش مصنوعی اخلاقی و معنوی است. اقدامات زیر میتواند به انسانیت بیشتر با تکثیر این سیستمها کمک کند:
تشویق و ایجاد فرهنگ و آموزش سازمانی
ماشینها و دادهها را میتوان تطبیق داد و نظارت کرد، اما افرادی که سیستمهای هوش مصنوعی را میسازند و استفاده میکنند، باید آموزش ببینند و از نیاز به تصمیمگیری جامعتر که شامل اخلاقیات و انصاف باشد، اطلاع داشته باشند. کسبوکارها ممکن است به این بستگی داشته باشند. رهبران باید این آهنگ را تنظیم کنند و به طور فعال تصمیمات ارائهشده توسط سیستمهای مبتنی بر هوش مصنوعی خود را در هر مرحله به چالش بکشند.
حذف سوگیری از دادهها
دادههای مورداستفاده برای آموزش مدلهای هوش مصنوعی ممکن است آگاهانه یا ناآگاهانه حاوی اطلاعات جانبداری ضمنی مرتبط با نژاد، جنسیت، منشأ یا هویتهای سیاسی باشد. همراه با چنین سوگیریهای مضری برای افراد، دادههای نادرست ممکن است سوگیریهای موجود در بخشی از تصمیمگیرندگان در مورد ادراکات درباره ترجیحات مشتری و روند بازار را تقویت کند. دادههایی که به سیستمهای هوش مصنوعی وارد میشوند باید برای چنین سوگیریهایی که میتوانند الگوریتمها را منحرف کنند، تجزیهو تحلیل شوند. فقط دادههای اثباتشده، معتبر و تأییدشده از منابع معتبر باید در مدلهای آموزشی گنجانده شود.
در جریان گذاشتن انسانها
نادیده گرفتن تصمیمات هوش مصنوعی باید آسان و کاربردی باشد. بسیاری از مدیران و مدیرانی که در حال حاضر با هوش مصنوعی کار میکنند، اعتراف میکنند که به دلیل ارائه نتایج نادرست یا ناعادلانه مجبور به مداخله در سیستمهای خود شدهاند. از هر چهار مدیر اجرایی که به نظرسنجی انجامشده توسط SAS, Accenture Applied Intelligence، اینتل و فوربس پاسخ میدهند، میگویند که به دلیل نتایج مشکوک یا نامطلوب مجبور شدهاند یک سیستم مبتنی بر هوشمصنوعی را بازنگری، طراحی مجدد یا لغو کنند. در میان این گروه، 48درصد دلیل آن را عدم استفاده از راهحل اعلام کردهاند. 38درصد دیگر گفتند که خروجی مدلهای آنها ناسازگار یا نادرست است، در حالی که 34درصد گفتند که راهحل آنها غیراخلاقی یا نامناسب است.
اعتبارسنجی قبل از استقرار در سناریوهای دنیای واقعی
ممکن است الگوریتمها قادر به انجام آنچه از آنها انتظار میرود براساس دادههای موجود باشد. با این حال، ممکن است که اطمینان حاصل شود که الگوریتم با استفاده از مکانیسمهای دیگر قبل از استقرار آن تأیید شده است. الگوریتمها باید برای نتایج غیرعمدی که ممکن است براساس استنتاجهای ذهنی یا دادههای آلوده باشد، آزمایش شوند.
آموختن ارزشهای انسانی به ماشینها
همان طورکه در بالا توضیح داده شد، مدتی طول میکشد تا سیستمهای هوش مصنوعی بتوانند همدلی را که بسیاری از تصمیمات انسانی را هدایت میکند، منعکس کنند. این بدان معنا نیست که چنین سیستمهایی به طور مداوم برای تقلید بهتر از ارزشهای انسانی بهبود مییابند. AI فقط برنامهنویسی و دادههایی را که به آن وارد میشود، منعکس میکند و مدیران کسبوکار باید بدانند که بینش سرد و مبتنی بر دادهها تنها بخشی از کل فرآیند تصمیمگیری است.
AI برای تصمیمگیری در دنیای واقعی کاملاً آماده نیست
هوش مصنوعی به نقطهای نزدیکتر میشود که میتواند بدون دخالت انسان تصمیمات ذهنی مستقل بگیرد. پیشنهاداتی مانند DALL E و ترانسفورماتورهای بزرگ زبان مانندGPT 3، BERT و Jurrasic 1 و مدلهای بینایی و یادگیری عمیق تقریباً با تواناییهای انسان مطابقت دارند. بیشتر پیشرفتها در دنیای مجازی است که برای تولید یا دستکاری محتوای رسانهای طراحی شده است.
به نظر ما، هوش مصنوعی هنوز راه طولانی برای اتخاذ تصمیمات نهایی در موقعیتهای زندگی واقعی دارد که نیاز به استدلال جامعتر و ذهنی دارند. هنوز هم صرفاً یک موتور واقعی است که براساس احتمالات و امتیازات، عمدتاً براساس دادههای تاریخی، بدون هیچ زمینهای از پیامدهای اطلاعاتی که ارائه میکند، عمل مینماید. هوش مصنوعی ممکن است براساس حقایق، تصمیمات درستی بگیرد، اما ممکن است فاقد همدلی باشد که باید بخشی از این تصمیمات باشد. ما هنوز به انسانهایی در میان راه نیاز داریم تا ارزش انسانها و تصمیمات را برای رفاه انسانها، مشاغل و جوامع ارزیابی کنند. هوش مصنوعی میتواند به ارائه نقاط تصمیمگیری کمک کند، اما انسانها همچنان باید در تصمیمگیری مشارکت داشته باشند . در نهایت، به جای هوش مصنوعی خالص، باید هوش مصنوعی تقویت گردد.