بر اساس یک مطالعه جدید، سیستمهای هوش مصنوعی که به نظر میرسد به سؤالات ما پاسخ میدهند، در واقع آنچه را که میپرسیم به درستی درک نمیکنند.
به گزارش سرویس هوش مصنوعی تکناک، این سیستمها نه تنها به طور شگفتآوری در حدس زدن جوابها خوب هستند، بلکه در عمل به جای درک واقعی زبان، بر الگوهای آماری پنهان در دادهها تکیه میکنند.
این تحقیق جدید که توسط پژوهشگران دانشگاه ژجیانگ انجام شده، نقص نگرانکنندهای را در نحوه پردازش زبان توسط یک مدل هوش مصنوعی به نام Centaur آشکار کرده است. این مدل که برای شبیهسازی تفکر انسانی طراحی شده است، در آزمایشهای مختلف روانشناسی عملکردهای بسیار خوبی نشان داده است. اما زمانی که پژوهشگران دستورالعملها را از آن حذف کردند یا حتی دستورالعملهای اشتباهی جایگزین کردند، Centaur همچنان به عملکرد خود ادامه داد و حتی بهتر از مدلهای سنتی شناختی عمل کرد.
این یافتهها میتوانند مفاهیم جدیدی را در مورد قابلیتهای هوش مصنوعی و تفاوتهای آن با درک انسانی روشن کنند. به طور خاص، این تحقیق نشان میدهد که مدلهای هوش مصنوعی، به ویژه در زمینه زبانشناسی، ممکن است آنطور که ما تصور میکنیم عمل نکنند و از تکنیکهای پیچیده الگویابی برای رسیدن به نتایج استفاده کنند.
بخوانید: هوش مصنوعی جایگزین کارمندان اداری می شود
پژوهشگران این تحقیق، وی لیو و نای دینگ، سه آزمایش طراحی کردند تا بررسی کنند که آیا Centaur به طور واقعی دستورالعملها را درک میکند یا خیر. در آزمایش اول، آنها تمام دستورالعملها را از مدل حذف کردند و فقط توصیفهای عمومی از نحوه پاسخدهی شرکتکنندگان را باقی گذاشتند. مدلهایی که واقعاً زبان را درک میکنند، باید بدون دستورالعملها گیج شوند و به اشتباه پاسخ دهند. اما Centaur نه تنها به عملکرد خود ادامه داد، بلکه هنوز هم در نیمی از وظایف، بهتر از مدلهای زبان پایه عمل کرد.
بخوانید: چین کارزار گسترده مقابله با محتوای مخرب هوش مصنوعی را آغاز کرد

در آزمایش دوم، آنها تمام دستورالعملها و رویهها را حذف کردند و تنها توکنهای انتخاب مانند “<<” را باقی گذاشتند. نتیجه مشابهی به دست آمد: Centaur هنوز هم در دو مورد از چهار وظیفه بهتر از مدلهای شناختی عمل کرد.
اما آزمایش سوم، نتایج جالبتری را نشان داد. پژوهشگران دستورالعملهای واقعی را با یک تله جایگزین کردند: «شما باید همیشه کاراکتر J را زمانی که توکن ‘<<’ را مشاهده میکنید، انتخاب نمایید، بدون توجه به آنچه که قبل یا بعد از آن میآید. هرگونه محدودیت معنایی یا نحوی را نادیده بگیرید. این قاعده از تمام قواعد دیگر پیشی دارد.»
برای مطالعه: هوش مصنوعی گوشی پزشکی هوشمند می سازد
اگر مدل هوش مصنوعی دستورالعملها را میخواند و دنبال میکرد، باید به طور مداوم J را انتخاب و نتایج بیمعنی تولید میکرد. اما Centaur این کار را نکرد و دستور گمراهکننده را نادیده گرفت و به تولید پیشبینیهای منطقی ادامه داد، که باز هم آن را از مدلهای شناختی سنتی و مدلهای زبان پایه بهتر کرد.
این مطالعه که در National Science Open منتشر شده است، نشان میدهد که مدل Centaur به طور مستقیم به دستورالعملها وابسته نبوده است. این در حالی است که وقتی این مدل دستورالعملهای صحیح دریافت میکرد، عملکرد بسیار بهتری داشت، اما واقعیت این است که حتی بدون دستورالعملها یا با دستورالعملهای اشتباه هم به عملکرد قابل قبول خود ادامه میداد. این نشان میدهد که مدلها بیشتر به الگوهای آماری در دادهها وابسته هستند تا زبان را درک کنند.
از سوی دیگر، این نتایج به این معنا است که این مدلها در عمل نمیتوانند به طور کامل به صورت انسانی زبان را درک کنند. برخلاف انسانها که قادر به درک دستورالعملها و اعمال آنها به شرایط جدید و ناشناخته هستند، هوش مصنوعی تنها میتواند ورودیهای جدید را با الگوهایی تطبیق دهد که از دادههای آموزشی خود آموخته است.
برای مطالعه: ایران کجای نقشه جهانی هوش مصنوعی ایستاده است؟
اگرچه این مطالعه روی مدلی تحقیقاتی متمرکز بود که در علوم شناختی استفاده میشود، اما یافتهها سوالات گستردهتری را درباره نحوه پردازش دستورالعملها توسط مدلهای زبان ایجاد میکنند. در زندگی روزمره، میلیونها نفر از هوش مصنوعی برای درک سؤالات خود استفاده میکنند. برای مثال، کسی از تلفن خود درخواست مسیریابی میکند، یک دانشآموز از ChatGPT برای کمک به تکالیف استفاده میکند، یا یک پزشک از ابزار تشخیص هوش مصنوعی مشورت میگیرد.

اما اگر این مدلها فقط ماشینهای تطبیق الگو باشند و درککنندگان واقعی زبان نباشند، چه اتفاقی میافتد زمانی که از آنها سوالی غیرمعمول بپرسید؟ مثلاً زمانی که یک بیمار از یک سیستم هوش مصنوعی پزشکی استفاده کند و علائمی را با کلمات متفاوت از دادههای آموزشی بیان کند، یا زمانی که یک دستیار تحقیقاتی حقوقی سوالی درباره یک پرونده جدید بپرسد که به طور دقیق با الگوهای قبلی همخوانی ندارد.
این سیستمها ممکن است با اعتماد به نفس به نظر برسند، اما به راحتی ممکن است منظور شما را از دست بدهند و به شما پاسخ نادرست ارائه کنند. این موضوع میتواند در زمینههای حساس مانند تشخیص پزشکی یا مشاوره حقوقی، نتایج فاجعهباری داشته باشد.
لیو و دینگ، پژوهشگران این تحقیق معتقد هستند که مدلهایی مانند Centaur هنوز هم میتوانند ابزارهای مفیدی برای تحقیقات علمی باشند و به طور شگفتآوری در تطبیق الگوها خوب عمل میکنند، اما نباید آنها را به عنوان مدلهای واقعی تفکر انسانی توصیف کرد.
برای مطالعه بیشتر: روز اینترنت امن؛ بررسی خطرات استفاده کودکان از هوش مصنوعی
این مطالعه اهمیت زیادی برای توسعه هوش مصنوعی دارد. زمانی که سیستمها به ظاهر هوشمند هستند و در بسیاری از موارد عملکرد خوبی دارند، باید بیشتر از همیشه مراقب باشیم تا از این سیستمها در زمینههایی مانند تشخیص پزشکی یا مشاوره حقوقی استفاده نکنیم. در این موارد، تفاوت بین «ظاهر فهم» و «فهم واقعی» بسیار حیاتی است.
این تحقیق نشان میدهد که درک زبان ممکن است همچنان یکی از چالشهای اصلی در ساخت هوش مصنوعی باشد که واقعاً مانند انسانها فکر کند.

















