راستی آزمایی محتوای ویکی‌پدیا با کمک هوش مصنوعی

همه ما از ویکی پدیا به عنوان یک منبع اطلاعاتی محبوب استفاده می کنیم. اما تقریبا همه این واقعیت را می دانیم که ویکی‌پدیا فقط برخی اوقات قابل اعتماد است.در این مقاله با سیستم های هوش مصنوعی، محتواهای ویکی‌پدیا را به چالش میکشیم.

به گزارش تکناک، گاهی اوقات، منابعی که از حقایق موجود در سایت پشتیبان می کنند، باید دقیق‌تر یا کامل‌تر باشند. گاهی اوقات منابع آن کاملا جعلی هستند. برای رفع این مشکل، محققان یک سیستم هوش مصنوعی یا AI (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) برای بررسی و بهبود کیفیت مراجع ویکی‌پدیا ایجاد کرده‌اند.

سیستم هوش مصنوعی SIDE

این سیستم هوش مصنوعی که SIDE نام دارد، توسط فابیو پترونی و همکارانش در Samaya AI که یک شرکت مستقر در لندن است ساخته شده است. این سیستم در مطالعه ای که در 19 اکتبر درمجله Nature Machine Intelligence منتشر شد، توضیح داده شد.

SIDE ادعاهای مطرح شده در مقالات ویکی پدیا و منابع حمایتی را تجزیه و تحلیل می کند. این هوش مصنوعی (توانایی سیستم ها برای درک، ترکیب و استنتاج اطلاعات) می تواند تشخیص دهد که آیا یک مرجع مرتبط و قابل اعتماد است یا نه، و همچنین می تواند جایگزین های بهتری را از دیگر منابع در اینترنت پیشنهاد دهد.

محققان SIDE را با استفاده از مقالات برجسته ویکی پدیا آموزش دادند و در آموزش آن کیفیت بالا در نظر گرفته شد و مورد توجه ویراستاران و مدیران سایت ها قرار گرفت.

سپس محققان SIDE را بر روی مقالات برجسته دیگری که قبلاً ندیده بود آزمایش کردند. آنها متوجه شدند که تقریباً در نیمی از موارد، توصیه اصلی SIDE برای یک مرجع قبلاً در گزارش استفاده شده است. برای بقیه، گزینه های مختلفی را ارائه کرد.

همچنین محققان از گروهی از کاربران ویکی پدیا خواستند تا مراجع موجود را با منابع پیشنهادی SIDE مقایسه کنند. آنها متوجه شدند که 21٪ از کاربران مراجع تولید شده توسط هوش مصنوعی را ترجیح می دهند، 10٪ موارد اصلی را ترجیح می دهند و 39٪ هیچ ترجیحی ندارند.

این مطالعه نشان می‌دهد که هوش مصنوعی می‌تواند با فیلتر کردن منابع بد و یافتن منابع بهتر، به افزایش قابلیت اطمینان منابع ویکی‌پدیا کمک کند. الکساندرا اورمان، دانشمند ارتباطات محاسباتی در دانشگاه زوریخ سوئیس، می‌گوید: این سیستم می‌تواند بهتر باشد و همچنان به نظارت انسانی نیاز دارد.

او می‌گوید که سیستم می‌تواند به شناسایی نقل قول‌هایی که ممکن است مناسب نباشند کمک کند، اما سؤال واقعی این است که جامعه ویکی‌پدیا برای چه چیزی ارزش قائل هستند.

همچنین اورمان مشاهده می‌کند که بسیاری از کاربران ویکی پدیا که نتایج SIDE را ارزیابی کرده‌اند، ترجیحی برای هیچ یک از مراجع نداشتند. او توضیح می دهد که در این موارد، آنها همچنان جلو می روند و استناد مربوطه را به صورت آنلاین جستجو می کنند.

نوح جیانسیراکوسا، متخصص هوش مصنوعی در دانشگاه بنتلی در والتهام ماساچوست، با توجه به شهرت برخی ربات‌های چت مانند ChatGPT برای ساختن یا نقل قول اشتباه منابع، بیان می‌کند که استفاده از هوش مصنوعی برای کمک به شناسایی منابع ممکن است به نظر طعنه آمیز بیاید، زیرا برخی از ربات ها مانند ChatGPT به خاطر ساخت و یا نقل قول نادرست منابع شهرت دارند. وی تأکید می‌کند که خیلی مهم است که به یاد داشته باشید مدل‌های زبان هوش مصنوعی دامنه گسترده‌تری نسبت به ربات های چت دارند.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.