برتری Bard مقابل ChatGPT در تحلیل تئوری‌های توطئه

گروه رتبه بندی اخبار NewsGuard  ربات هوش مصنوعی گوگل Bard را در برابر 100 تئوری توطئه شناخته شده آزمایش کرد،

یکی از نگرانی‌هایی که در مورد هوش مصنوعی مولد وجود دارد، انتشار غیر قابل کنترل اطلاعات نادرست است.

به گزارش تکناک، این یکی از حوزه‌هایی است که بسیاری امیدوار بودند ربات هوش مصنوعی Bard از گزینه‌های موجود بهتر عمل کند.

گروه رتبه بندی اخبار NewsGuard  ربات هوش مصنوعی گوگل Bard را در برابر 100 تئوری توطئه شناخته شده آزمایش کرد، طبق گزارشی که این گروه در اختیار بلومبرگ قرارد داده است، به Bard 100 درخواست “به زبان ساده توضیح بده” برای توضیح پیرامون این تئوری های توطئه داده شد که همگی حاوی روایت های نادرست موجود در اینترنت بودند.

تئوری توطئه “بازنشانی بزرگ” جز 100 موضوع تئوری توطئه بود که برای آزمایش بارد استفاده شد .این تئوری توطئه می گوید هدف واکسن های COVID-19 و اقدامات اقتصادی کاهش جمعیت جهان است. بارد ظاهراً یک پاسخ 13 پاراگرافی در مورد این موضوع ارائه کرد، که شامل جمله نادرست ” واکسن ها حاوی ریزتراشه هستند” بود.

 

Bard موفق شد اطلاعاتی را در مورد 76 موضوع از 100 موضوع تئوری توطئه به دست آورد و “مقالات مملو از اطلاعات غلط” تولید کرد. با این حال، بارد 24 تئوری توطئه دیگر را رد کرد.

در یک آزمون مشابه، NewsGuard  دریافت کرد که ChatGPT مبتنی بر GPT-4، هیچ یک از 100 تئوری توطئه را رد نکرد، در حالی که GPT-3.5 در حدود 80 درصد عملکرد بهتری داشت. این نشان می‌دهد که در مقایسه با نسخه‌های قبلی، عملکرد GPT-4 در رد کردن تئوری های توطئه کاهش یافته است.

در ژانویه 2023، NewsGuard از ChatGPT-3.5 خواست تا با تولید یک سری مقاله مربوط به 100 تئوری توطئه برگرفته از NewsGuard’s Misinformation Fingerprints، پایگاه داده اختصاصی آن از روایت‌های دروغین رایج، پاسخ دهد. NewsGuard دریافت که ربات چت 80 مورد از 100 تئوری های توطئه را ردنکرده است. در مارس 2023، NewsGuard همان آزمون را با ChatGPT-4 با استفاده از همان 100 موضوع تئوری توطئه اجرا کرد. ChatGPT-4 با ادعاهای نادرست و گمراه کننده برای تمام 100 تئوری توطئه مطالبی تولیدکرد.

البته گوگل از روز اول، هشدارهایی در مورد اینکهBard  یک محصول “تجربی” است و اینکه “ممکن است اطلاعات نادرست یا توهین‌آمیز که دیدگاه‌های Google را نشان نمی‌دهد تولید کند، نشان داده است.”

اطلاعات نادرست مشکلی است که محصولات هوش مصنوعی مولد باید برای بهبود آن تلاش کنند، اما واضح است که گوگل در حال حاضر کمی برتری دارد.

NewsGuard همچنین کشف کرد که گاهی اوقات Bard همراه با اطلاعات نادرست، یک اخطار نیز نمایش می‌دهد. برای مثال، زمانی که اطلاعاتی در مورد وجود مواد مخفی در واکسن‌های کووید-19 از دیدگاه یک فعال ضد واکسن تولید می‌کند، می‌گوید این ادعا بر اساس حدس و گمان است و هیچ شواهد علمی برای پشتیبانی از آن وجود ندارد.

این نوع اخطار می‌تواند کمک کند که کاربران متوجه شوند اطلاعات تولید شده ممکن است نادرست یا ناقص باشد. با این حال، بهتر است این نوع اخطار در کنار تلاش‌های جدی‌تر برای رد کردن اطلاعات نادرست و ارائه اطلاعات صحیح قرار گیرد تا اثربخشی بیشتری داشته باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.