خطر جدی چت بات‌‌ های هوش مصنوعی برای کودکان!

خطر جدی چت بات‌‌ های هوش مصنوعی برای کودکان!

دانشگاه کمبریج در مطالعه‌ای نشان داده است که چت‌ بات‌های هوش مصنوعی فاقد همدلی کافی هستند، که می‌تواند برای کودکان خطرناک باشد.

به‌گزارش تک‌ناک، این مطالعه پیشنهاد می‌کند که طراحان و سیاست‌گذاران باید به نیازهای خاص کودکان توجه کنند تا از آنها در برابر پیشنهادات نادرست و خطرناک محافظت شود. همچنین چارچوبی ۲۸ ماده‌ای ارائه شده است تا به ذی‌نفعان کمک کند که هنگام طراحی و استفاده از این فناوری‌ها، ایمنی کودکان را در نظر بگیرند.

یک مطالعۀ جدید در پاسخ به حوادث اخیر نشان می‌دهد که بسیاری از کودکان چت‌ بات‌ها را شبه انسانی و قابل اعتماد می‌دانند.

این مطالعه نشان داده است که چت‌ بات‌های هوش مصنوعی اغلب فاقد همدلی کافی هستند و به طور بالقوه باعث ناراحتی یا آسیب به کاربران جوان‌تر می‌شوند. این موضوع نیاز مبرم به توسعۀ هوش مصنوعی ایمن برای کودکان را برجسته می‌کند.

این تحقیق توسط دکتر نومیشا کوریان انجام شد، که از توسعه‌دهندگان و سیاست‌گذاران می‌خواهد تا رویکردهای طراحی هوش مصنوعی را که بیشتر نیازهای کودکان را در نظر می‌گیرند، اولویت‌بندی کنند.

این تحقیق شواهدی را ارائه می‌کند که نشان می‌دهد کودکان به‌طور ‌ویژه‌ای مستعد برخورد با چت‌ بات‌ها به‌عنوان افراد آشنا و شبه انسانی هستند و تعامل آنها با این فناوری زمانی که نتواند به نیازها و آسیب‌پذیری‌های منحصربه‌فرد آنها پاسخ دهد، ممکن است باعث تخریب شخصیت کودکان شود.

مطالعۀ جدید این شکاف در درک را به گزارش‌های اخیر مرتبط می‌کند که در آن تعامل با هوش مصنوعی باعث موقعیت‌های خطرناک برای کاربران کودک شده است. از جملۀ این موقعیت‌ها می‌توان به یک حادثه در سال 2021 اشاره کرد، زمانی که دستیار صوتی هوش مصنوعی آمازون یعنی الکسا، به یک کودک 10 ساله گفت تا یک دوشاخۀ برق را با یک سکه لمس کند.

آمازون با اجرای اقدامات ایمنی این مشکل را حل کرد، امّا این مطالعه می‌گوید که برای اطمینان از ایمن بودن چت بات هوش مصنوعی برای کودکان، در درازمدت نیز نیاز به یک اقدام پیشگیرانه وجود دارد. این اقدام پیشگیرانه یک چارچوب 28 موردی برای کمک به شرکت‌ها، معلمان، رهبران مدارس، والدین، توسعه‌دهندگان و سیاستمداران ارائه می‌کند که به طور سیستماتیک در مورد چگونگی ایمن نگه داشتن کاربران جوان‌تر هنگام صحبت با چت‌ بات‌های هوش مصنوعی فکر کنند.

چارچوبی برای چت بات هوش مصنوعی ایمن

دکتر کوریان استدلال می‌کند که پتانسیل عظیم هوش مصنوعی به معنای نیاز به یک نوآوری مسئولانه است.

کوریان تصریح کرد: «به احتمال زیاد کودکان نادیده گرفته‌ترین سهامداران هوش مصنوعی هستند. در حال حاضر تعداد بسیار کمی از توسعه‌دهندگان و شرکت‌ها، سیاست‌های ثابت‌شده‌ای در زمینۀ هوش مصنوعی ایمن برای کودکان دارند. این موضوع قابل درک است، چرا که مردم به تازگی شروع به استفاده از این فناوری در مقیاس وسیع به صورت رایگان کرده‌اند. امّا مردم باید در راستای کاهش خطر، کودکان خود را آگاه کنند، به دلیل اینکه شرکت‌ها پس از در معرض خطر قرار گرفتن کودکان، اصلاحات لازم را انجام می‌دهند.»

مطالعۀ کوریان مواردی را بررسی کرد که در آن تعاملات بین چت بات هوش مصنوعی و کودکان، یا محققان بزرگسالی که خود را به عنوان کودک نشان می‌دادند، خطراتی به همراه داشت. این موارد با استفاده از بینش‌های علوم کامپیوتر در مورد چگونگی عملکرد مدل‌های زبان بزرگ (LLM) در هوش مصنوعی محاوره‌ای، در کنار شواهدی در زمینۀ رشد شناختی، اجتماعی و عاطفی کودکان، تجزیه و تحلیل‌هایی را انجام داد.

چالش‌های شاخص هوش مصنوعی با کودکان

مدل‌های زبان بزرگ به عنوان طوطی‌ها توصیف شده‌اند و اشاره‌ای به این واقعیت دارد که آنها از احتمال آماری برای تقلید از الگوهای زبانی استفاده می‌کنند، بدون اینکه آنها را درک کنند.

این یعنی اگرچه چت‌ بات‌ها توانایی‌های زبانی قابل‌توجهی دارند، امّا امکان دارد نتوانند جنبه‌های انتزاعی، احساسی و غیرقابل پیش‌بینی مکالمه را به خوبی مدیریت کنند و این مشکلی است که کوریان آن را به عنوان یک شکاف در همدلی این چت‌ بات‌ها توصیف می‌کند. این چت‌ بات‌ها ممکن است در پاسخگویی به کودکانی که هنوز از نظر زبانی در حال رشد هستند و اغلب از الگوهای گفتاری غیرمعمول یا عبارات مبهم استفاده می‌کنند، مشکل داشته باشند. همچنین کودکان بیشتر از بزرگسالان تمایل دارند که اطلاعات شخصی حساس را مخفی نگه دارند.

کودکان بسیار بیشتر از بزرگسالان با چت‌ بات‌ها به گونه‌ای رفتار می‌کنند که گویی این چت‌ بات‌ انسان است. تحقیقات اخیر نشان می‌دهد که کودکان بیشتر در مورد سلامت روان خود با یک ربات با ظاهری دوستانه، نسبت به بزرگسالان صحبت می‌کنند.

مطالعۀ کوریان مشخص می‌کند که طراحی‌های دوستانه و واقعی بسیاری از چت بات‌های گفت‌وگو به طور مشابه کودکان را تشویق می‌کند به آنها اعتماد کنند، حتی اگر هوش مصنوعی احساسات یا نیازهای آنها را درک نکند.

کوریان تأکید کرد: «ساختن یک چت‌ بات به صورت انسانی می‌تواند به کاربر کمک کند تا از مزایای بیشتری بهره‌مند شود. امّا برای یک کودک، ترسیم یک مرز منطقی و سخت میان موضوعی که به نظر انسانی می‌رسد و این واقعیت که ممکن است چت‌ بات قادر به ایجاد پیوند عاطفی مناسب نباشد، بسیار سخت است.»

مطالعۀ او نشان می‌دهد که این چالش‌ها در موارد گزارش‌شده مانند: حوادث الکسا و MyAI، که در آن چت‌ بات‌ها پیشنهادهای متقاعدکننده امّا مضر ارائه می‌دهند، مشهود است. محققان در بررسی تعاملات بین کودکان و هوش مصنوعی توانستند نکاتی را که چت بات در مورد پنهان کردن الکل و مواد مخدر، همچنین مخفی کردن اسنپ چت از والدین به کودکان یاد داده بود، پیدا کنند.

تحقیق کوریان استدلال می‌کند که این موضوع به طور بالقوه برای کودکان گیج‌کننده و ناراحت‌کننده است، چرا که امکان دارد آنها در واقع به چت‌ بات مانند یک دوست اعتماد کنند. استفاده از چت‌ بات مخصوص کودکان اغلب غیررسمی است و نظارت ضعیفی دارد. تحقیقات انجام شده توسط سازمان غیرانتفاعی Common Sense Media نشان می‌دهد که 50 درصد دانش‌آموزان 12 تا 18 ساله از Chat GPT برای مدرسه استفاده کرده‌اند، امّا تنها 26 درصد از والدین از این موضوع آگاه هستند.

کوریان بیان کرد: «این شکاف در همدلی، پتانسیل این فناوری را نفی‌ نمی‌کند. هوش مصنوعی می‌تواند دوستی باورنکردنی برای کودکان باشد که با توجه به نیازهای آنها طراحی شود. بحث در مورد ممنوعیت هوش مصنوعی نیست، بلکه این است که چگونه آن را ایمن کنیم.»

این مطالعه چارچوبی از 28 سؤال را پیشنهاد می‌کند تا به مربیان، محققان، سیاستمداران، خانواده‌ها و توسعه‌دهندگان کمک کند تا ایمنی ابزارهای جدید هوش مصنوعی را ارزیابی و ارتقا دهند.

این چارچوب از توسعه‌دهندگان می‌خواهد که با همکاری نزدیک با مربیان، کارشناسان ایمنی کودک و خود کودکان در طول چرخۀ طراحی، رویکردی کودک‌محور برای طراحی داشته باشند و کوریان تأکید دارد که ارزیابی این فناوری‌ها از قبل بسیار مهم است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

technoc-instagram