دانشگاه کمبریج در مطالعهای نشان داده است که چت باتهای هوش مصنوعی فاقد همدلی کافی هستند، که میتواند برای کودکان خطرناک باشد.
بهگزارش تکناک، این مطالعه پیشنهاد میکند که طراحان و سیاستگذاران باید به نیازهای خاص کودکان توجه کنند تا از آنها در برابر پیشنهادات نادرست و خطرناک محافظت شود. همچنین چارچوبی ۲۸ مادهای ارائه شده است تا به ذینفعان کمک کند که هنگام طراحی و استفاده از این فناوریها، ایمنی کودکان را در نظر بگیرند.
یک مطالعۀ جدید در پاسخ به حوادث اخیر نشان میدهد که بسیاری از کودکان چت باتها را شبه انسانی و قابل اعتماد میدانند.
این مطالعه نشان داده است که چت باتهای هوش مصنوعی اغلب فاقد همدلی کافی هستند و به طور بالقوه باعث ناراحتی یا آسیب به کاربران جوانتر میشوند. این موضوع نیاز مبرم به توسعۀ هوش مصنوعی ایمن برای کودکان را برجسته میکند.
این تحقیق توسط دکتر نومیشا کوریان انجام شد، که از توسعهدهندگان و سیاستگذاران میخواهد تا رویکردهای طراحی هوش مصنوعی را که بیشتر نیازهای کودکان را در نظر میگیرند، اولویتبندی کنند.
این تحقیق شواهدی را ارائه میکند که نشان میدهد کودکان بهطور ویژهای مستعد برخورد با چت باتها بهعنوان افراد آشنا و شبه انسانی هستند و تعامل آنها با این فناوری زمانی که نتواند به نیازها و آسیبپذیریهای منحصربهفرد آنها پاسخ دهد، ممکن است باعث تخریب شخصیت کودکان شود.
مطالعۀ جدید این شکاف در درک را به گزارشهای اخیر مرتبط میکند که در آن تعامل با هوش مصنوعی باعث موقعیتهای خطرناک برای کاربران کودک شده است. از جملۀ این موقعیتها میتوان به یک حادثه در سال 2021 اشاره کرد، زمانی که دستیار صوتی هوش مصنوعی آمازون یعنی الکسا، به یک کودک 10 ساله گفت تا یک دوشاخۀ برق را با یک سکه لمس کند.
آمازون با اجرای اقدامات ایمنی این مشکل را حل کرد، امّا این مطالعه میگوید که برای اطمینان از ایمن بودن چت بات هوش مصنوعی برای کودکان، در درازمدت نیز نیاز به یک اقدام پیشگیرانه وجود دارد. این اقدام پیشگیرانه یک چارچوب 28 موردی برای کمک به شرکتها، معلمان، رهبران مدارس، والدین، توسعهدهندگان و سیاستمداران ارائه میکند که به طور سیستماتیک در مورد چگونگی ایمن نگه داشتن کاربران جوانتر هنگام صحبت با چت باتهای هوش مصنوعی فکر کنند.
فهرست مطالب
چارچوبی برای چت بات هوش مصنوعی ایمن
دکتر کوریان استدلال میکند که پتانسیل عظیم هوش مصنوعی به معنای نیاز به یک نوآوری مسئولانه است.
کوریان تصریح کرد: «به احتمال زیاد کودکان نادیده گرفتهترین سهامداران هوش مصنوعی هستند. در حال حاضر تعداد بسیار کمی از توسعهدهندگان و شرکتها، سیاستهای ثابتشدهای در زمینۀ هوش مصنوعی ایمن برای کودکان دارند. این موضوع قابل درک است، چرا که مردم به تازگی شروع به استفاده از این فناوری در مقیاس وسیع به صورت رایگان کردهاند. امّا مردم باید در راستای کاهش خطر، کودکان خود را آگاه کنند، به دلیل اینکه شرکتها پس از در معرض خطر قرار گرفتن کودکان، اصلاحات لازم را انجام میدهند.»
مطالعۀ کوریان مواردی را بررسی کرد که در آن تعاملات بین چت بات هوش مصنوعی و کودکان، یا محققان بزرگسالی که خود را به عنوان کودک نشان میدادند، خطراتی به همراه داشت. این موارد با استفاده از بینشهای علوم کامپیوتر در مورد چگونگی عملکرد مدلهای زبان بزرگ (LLM) در هوش مصنوعی محاورهای، در کنار شواهدی در زمینۀ رشد شناختی، اجتماعی و عاطفی کودکان، تجزیه و تحلیلهایی را انجام داد.
چالشهای شاخص هوش مصنوعی با کودکان
مدلهای زبان بزرگ به عنوان طوطیها توصیف شدهاند و اشارهای به این واقعیت دارد که آنها از احتمال آماری برای تقلید از الگوهای زبانی استفاده میکنند، بدون اینکه آنها را درک کنند.
این یعنی اگرچه چت باتها تواناییهای زبانی قابلتوجهی دارند، امّا امکان دارد نتوانند جنبههای انتزاعی، احساسی و غیرقابل پیشبینی مکالمه را به خوبی مدیریت کنند و این مشکلی است که کوریان آن را به عنوان یک شکاف در همدلی این چت باتها توصیف میکند. این چت باتها ممکن است در پاسخگویی به کودکانی که هنوز از نظر زبانی در حال رشد هستند و اغلب از الگوهای گفتاری غیرمعمول یا عبارات مبهم استفاده میکنند، مشکل داشته باشند. همچنین کودکان بیشتر از بزرگسالان تمایل دارند که اطلاعات شخصی حساس را مخفی نگه دارند.
کودکان بسیار بیشتر از بزرگسالان با چت باتها به گونهای رفتار میکنند که گویی این چت بات انسان است. تحقیقات اخیر نشان میدهد که کودکان بیشتر در مورد سلامت روان خود با یک ربات با ظاهری دوستانه، نسبت به بزرگسالان صحبت میکنند.
مطالعۀ کوریان مشخص میکند که طراحیهای دوستانه و واقعی بسیاری از چت باتهای گفتوگو به طور مشابه کودکان را تشویق میکند به آنها اعتماد کنند، حتی اگر هوش مصنوعی احساسات یا نیازهای آنها را درک نکند.
کوریان تأکید کرد: «ساختن یک چت بات به صورت انسانی میتواند به کاربر کمک کند تا از مزایای بیشتری بهرهمند شود. امّا برای یک کودک، ترسیم یک مرز منطقی و سخت میان موضوعی که به نظر انسانی میرسد و این واقعیت که ممکن است چت بات قادر به ایجاد پیوند عاطفی مناسب نباشد، بسیار سخت است.»
مطالعۀ او نشان میدهد که این چالشها در موارد گزارششده مانند: حوادث الکسا و MyAI، که در آن چت باتها پیشنهادهای متقاعدکننده امّا مضر ارائه میدهند، مشهود است. محققان در بررسی تعاملات بین کودکان و هوش مصنوعی توانستند نکاتی را که چت بات در مورد پنهان کردن الکل و مواد مخدر، همچنین مخفی کردن اسنپ چت از والدین به کودکان یاد داده بود، پیدا کنند.
تحقیق کوریان استدلال میکند که این موضوع به طور بالقوه برای کودکان گیجکننده و ناراحتکننده است، چرا که امکان دارد آنها در واقع به چت بات مانند یک دوست اعتماد کنند. استفاده از چت بات مخصوص کودکان اغلب غیررسمی است و نظارت ضعیفی دارد. تحقیقات انجام شده توسط سازمان غیرانتفاعی Common Sense Media نشان میدهد که 50 درصد دانشآموزان 12 تا 18 ساله از Chat GPT برای مدرسه استفاده کردهاند، امّا تنها 26 درصد از والدین از این موضوع آگاه هستند.
کوریان بیان کرد: «این شکاف در همدلی، پتانسیل این فناوری را نفی نمیکند. هوش مصنوعی میتواند دوستی باورنکردنی برای کودکان باشد که با توجه به نیازهای آنها طراحی شود. بحث در مورد ممنوعیت هوش مصنوعی نیست، بلکه این است که چگونه آن را ایمن کنیم.»
این مطالعه چارچوبی از 28 سؤال را پیشنهاد میکند تا به مربیان، محققان، سیاستمداران، خانوادهها و توسعهدهندگان کمک کند تا ایمنی ابزارهای جدید هوش مصنوعی را ارزیابی و ارتقا دهند.
این چارچوب از توسعهدهندگان میخواهد که با همکاری نزدیک با مربیان، کارشناسان ایمنی کودک و خود کودکان در طول چرخۀ طراحی، رویکردی کودکمحور برای طراحی داشته باشند و کوریان تأکید دارد که ارزیابی این فناوریها از قبل بسیار مهم است.