جامعه ویراستاران داوطلب ویکیپدیا با مخالفت گسترده نسبت به طرح جدید بنیاد ویکیمدیا برای آزمایش خلاصههای مقالهای تولیدشده با هوش مصنوعی، باعث توقف اجرای این پروژه شدند.
به گزارش تکناک، این خلاصهها قرار بود با استفاده از مدل متنباز «آیا» (Aya) تولید شوند، که توسط شرکت Cohere توسعه یافته است.
به گزارش رسانه 404Media، این پروژه در قالب آزمایشی دو هفتهای و به صورت اختیاری تنها در نسخه موبایل ویکیپدیا برنامهریزی شده بود. اما ویراستاران داوطلب که ستون فقرات این دانشنامه آنلاین محسوب میشوند، بهشدت با آن مخالفت کردند. صفحه بحث مربوط به این پروژه به سرعت به محلی برای مخالفتهای قاطع و گاه تند تبدیل شد. از نظرات سادهای مانند «چندشآور» گرفته تا مخالفتهای صریح نظیر «با قویترین لحن ممکن مخالفم» و «اصلاً امکان ندارد»، بازتابی از شدت واکنش کاربران بود.
یکی از ویراستاران ویکیپدیا هشدار داد که اجرای آزمایشی تولید خلاصههای مقالهها با هوش مصنوعی میتواند «آسیبی فوری و غیرقابل بازگشت به اعتماد خوانندگان و اعتبار ما به عنوان منبعی جدی و به نسبت قابل اعتماد وارد کند». او تأکید کرد که ویکیپدیا بر پایه دقت، بیطرفی و اعتبار بنا شده است و به دنبال جذابیتهای سطحی یا نمایشهای فناورانه نیست.
ویراستار دیگری نگران بود که این کار مدل مشارکتی ویکیپدیا را از بین ببرد، چرا که بهجای مجموعهای از ویراستاران انسانی که به تعادل و دقت محتوا کمک میکنند، خلاصهسازی هوش مصنوعی در حکم «یک ویراستار واحد با مشکلات شناختهشده در بیطرفی و قابلیت اعتماد» عمل خواهد کرد.
او تصریح کرد: «احساس میکنم خلاصهسازی ساده مقالات (SAS) با انتظارات بسیاری از خوانندگان از یک دانشنامه در تضاد است. مخاطبان از ما انتظار دارند که تمام اطلاعات لازم را همراه با منابع معتبر ارائه کنیم و به اصل بیطرفی پایبند بمانیم. بدون این دو اصل، ویکیپدیا فقط یکی دیگر از سایتهای معمولی خواهد بود.»

نگرانیهای ویراستاران بیپایه نیست. شکستهای اخیر در پروژههای هوش مصنوعی شرکتهای بزرگ فناوری نیز این دغدغهها را تقویت کرده است. برای نمونه، خلاصهسازیهای هوش مصنوعی گوگل با رسیدن به ۱.۵ میلیارد کاربر ماهانه، بارها به دلیل ارائه اطلاعات نادرست مانند توصیه به چسب زدن روی پیتزا یا ادعای بازی یک سگ در لیگ NBA به سوژه طنز و انتقاد تبدیل شده است؛ اشتباهاتی که جامعه ویکیپدیا تمام تلاش خود را میکند تا از آنها پرهیز نماید. نمونه مشابه دیگر در ژانویه اتفاق افتاد؛ زمانی که ویژگی هوش مصنوعی اپل به اشتباه اعلام کرد که فردی به نام لوئیجی مانجونه خودکشی کرده است، در حالی که او زنده و در بازداشت بود.
مارشال میلر، مدیر ارشد بنیاد ویکیمدیا، امروز در صفحه بحث فنی ویکیپدیا اعلام کرد که بازخوردها دریافت شده است و اذعان کرد: «واضح است که میتوانستیم در معرفی این ایده، عملکرد بهتری داشته باشیم.»
او همچنین تأیید کرد که اجرای آزمایشی این طرح متوقف شده است. بنیاد در بیانیهای اعلام کرد که هدف اصلی از این طرح، بررسی راههایی برای بهبود دسترسی کاربران مختلف به اطلاعات بوده است. ویکیمدیا با وجود توقف این آزمون خاص، همچنان به بهرهگیری از فناوریهای نوین علاقهمند است.
میلر در پایان تأکید کرد: «هیچ برنامهای برای افزودن قابلیت خلاصهسازی بدون مشارکت ویراستاران نداریم.»
یکی از سخنگویان بنیاد نیز در گفتوگو با 404Media اعلام کرد که هرچند اجرای پروژه فعلاً متوقف شده، اما علاقه به استفاده از خلاصهسازیهای هوش مصنوعی همچنان پابرجا است.
او تأکید کرد که هدف نهایی، ایجاد سیستمهای نظارتی است که در آنها «انسان همچنان در مرکز فرایند باقی بماند» و این نوع بازخوردها نشاندهنده ماهیت مشارکتی واقعی ویکیپدیا است.