یکی از نگرانیهایی که در مورد هوش مصنوعی مولد وجود دارد، انتشار غیر قابل کنترل اطلاعات نادرست است.
به گزارش تکناک، این یکی از حوزههایی است که بسیاری امیدوار بودند ربات هوش مصنوعی Bard از گزینههای موجود بهتر عمل کند.
گروه رتبه بندی اخبار NewsGuard ربات هوش مصنوعی گوگل Bard را در برابر 100 تئوری توطئه شناخته شده آزمایش کرد، طبق گزارشی که این گروه در اختیار بلومبرگ قرارد داده است، به Bard 100 درخواست “به زبان ساده توضیح بده” برای توضیح پیرامون این تئوری های توطئه داده شد که همگی حاوی روایت های نادرست موجود در اینترنت بودند.
تئوری توطئه “بازنشانی بزرگ” جز 100 موضوع تئوری توطئه بود که برای آزمایش بارد استفاده شد .این تئوری توطئه می گوید هدف واکسن های COVID-19 و اقدامات اقتصادی کاهش جمعیت جهان است. بارد ظاهراً یک پاسخ 13 پاراگرافی در مورد این موضوع ارائه کرد، که شامل جمله نادرست ” واکسن ها حاوی ریزتراشه هستند” بود.
Bard موفق شد اطلاعاتی را در مورد 76 موضوع از 100 موضوع تئوری توطئه به دست آورد و “مقالات مملو از اطلاعات غلط” تولید کرد. با این حال، بارد 24 تئوری توطئه دیگر را رد کرد.
در یک آزمون مشابه، NewsGuard دریافت کرد که ChatGPT مبتنی بر GPT-4، هیچ یک از 100 تئوری توطئه را رد نکرد، در حالی که GPT-3.5 در حدود 80 درصد عملکرد بهتری داشت. این نشان میدهد که در مقایسه با نسخههای قبلی، عملکرد GPT-4 در رد کردن تئوری های توطئه کاهش یافته است.
در ژانویه 2023، NewsGuard از ChatGPT-3.5 خواست تا با تولید یک سری مقاله مربوط به 100 تئوری توطئه برگرفته از NewsGuard’s Misinformation Fingerprints، پایگاه داده اختصاصی آن از روایتهای دروغین رایج، پاسخ دهد. NewsGuard دریافت که ربات چت 80 مورد از 100 تئوری های توطئه را ردنکرده است. در مارس 2023، NewsGuard همان آزمون را با ChatGPT-4 با استفاده از همان 100 موضوع تئوری توطئه اجرا کرد. ChatGPT-4 با ادعاهای نادرست و گمراه کننده برای تمام 100 تئوری توطئه مطالبی تولیدکرد.
البته گوگل از روز اول، هشدارهایی در مورد اینکهBard یک محصول “تجربی” است و اینکه “ممکن است اطلاعات نادرست یا توهینآمیز که دیدگاههای Google را نشان نمیدهد تولید کند، نشان داده است.”
اطلاعات نادرست مشکلی است که محصولات هوش مصنوعی مولد باید برای بهبود آن تلاش کنند، اما واضح است که گوگل در حال حاضر کمی برتری دارد.
NewsGuard همچنین کشف کرد که گاهی اوقات Bard همراه با اطلاعات نادرست، یک اخطار نیز نمایش میدهد. برای مثال، زمانی که اطلاعاتی در مورد وجود مواد مخفی در واکسنهای کووید-19 از دیدگاه یک فعال ضد واکسن تولید میکند، میگوید این ادعا بر اساس حدس و گمان است و هیچ شواهد علمی برای پشتیبانی از آن وجود ندارد.
این نوع اخطار میتواند کمک کند که کاربران متوجه شوند اطلاعات تولید شده ممکن است نادرست یا ناقص باشد. با این حال، بهتر است این نوع اخطار در کنار تلاشهای جدیتر برای رد کردن اطلاعات نادرست و ارائه اطلاعات صحیح قرار گیرد تا اثربخشی بیشتری داشته باشد.