آیا می توان مدیریت محتوا را به GPT-4 سپرد؟

در یک پست وبلاگ، OpenAI ادعا می‌کند که قبلاً از GPT-4 برای توسعه و بهبود سیاست‌های خود درباره محتوا، برچسب‌گذاری آنها و تصمیم‌گیری استفاده کرده است.

به گزارش تکناک، لیلیان ونگ، رئیس سیستم‌های ایمنی OpenAI در این ارتباط گفت: من تمایل دارم افراد بیشتری را ببینم که اعتماد، ایمنی و اعتدال را به این روش به کار گیرند. این یک گام واقعاً خوب و رو به جلو در نحوه استفاده از هوش مصنوعی برای حل مسائل دنیای واقعی به روشی است که برای جامعه مفید است.

OpenAI سه مزیت عمده را در مقایسه با روش های سنتی برای تعدیل محتوا می بیند. اول، ادعا می کند که مردم سیاست ها را متفاوت تفسیر می کنند، در حالی که چنین دستگاه هایی در قضاوت های خود ثابت هستند. این دستورالعمل ها می توانند به اندازه یک کتاب باشند و دائماً تغییر کنند. اگرچه یادگیری و انطباق انسان ها به آموزش زیادی نیاز دارد، اما OpenAI استدلال می کند که مدل های زبان بزرگ می توانند سیاست های جدید را فوراً اجرا کنند.

دوم، GPT-4 ظاهراً می تواند در چند ساعت به توسعه یک سیاست جدید کمک کند. فرآیند تهیه پیش‌نویس، برچسب‌گذاری، جمع‌آوری بازخورد و پالایش معمولاً هفته‌ها یا چند ماه طول می‌کشد. سوم، OpenAI به رفاه افرادی اشاره می کند که به طور مداوم در معرض محتوای مضر، مانند ویدئوهای کودک آزاری یا شکنجه هستند.

پس از نزدیک به دو دهه استفاده از رسانه‌های اجتماعی مدرن و حتی سال‌های بیشتری از جوامع آنلاین، تعدیل محتوا هنوز یکی از دشوارترین چالش‌ها برای پلتفرم‌های آنلاین است. متا، گوگل و تیک تاک به ارتش ناظرانی متکی هستند که باید یک سری محتوای وحشتناک و اغلب آسیب زا را بررسی کنند. اکثر آنها در کشورهای در حال توسعه با دستمزدهای پایین تر مستقر هستند، برای شرکت ها به صورت دورکاری کار می کنند و با چالش هایی درمورد سلامت روانی دست و پنجه نرم می کنند، زیرا آنها به دلیل شغلشان حداقل میزان مراقبت های روانی را دارند.

با این حال، OpenAI  خود به شدت به کلیک ورکرها و کار انسانی متکی است. هزاران نفر که بسیاری از آنها در کشورهای آفریقایی مانند کنیا هستند، مطالب را حاشیه نویسی و برچسب گذاری می کنند. متن ها می توانند آزاردهنده باشند، شغل استرس زا است و دستمزد ضعیف است.

اگرچهOpenAI  روش خود را جدید و انقلابی معرفی می‌کند، اما هوش مصنوعی سال‌هاست که برای تعدیل محتوا استفاده می‌شود. دیدگاه مارک زاکربرگ از یک سیستم خودکار کامل هنوز کاملاً مشخص نشده است، اما متا از الگوریتم‌هایی برای تعدیل اکثریت قریب به اتفاق محتوای مضر و غیرقانونی استفاده می‌کند. پلتفرم‌هایی مانند YouTube و TikTok روی سیستم‌های مشابه حساب می‌کنند، بنابراین فناوری OpenAI  ممکن است برای شرکت‌های کوچک‌تری که منابع لازم برای توسعه فناوری خود را ندارند، جذاب باشد.

هر پلتفرمی آشکارا اعتراف می کند که نظارت کامل محتوای در مقیاس بالا، غیرممکن است. هم انسان‌ها و هم دستگاه ها اشتباه می‌کنند و اگرچه درصد این اشتباه ممکن است کم باشد، اما هنوز هم میلیون‌ها پست آسیب زا وجود دارد که بررسی نمی شوند و به همان اندازه محتوای بی‌ضرر، پنهان یا حذف می‌شوند.

به طور خاص یک ناحیه خاکستری از محتوای گمراه‌کننده، اشتباه و تهاجمی وجود دارد که غیرقانونی نیست و چالش بزرگی را برای سامانه‌های خودکار ایجاد می‌کند. حتی کارشناسان انسانی هم با مشکل برچسب‌زنی اینگونه پست‌ها روبرو هستند و دستگاه‌ها به طور مکرر اشتباه می‌کنند. همین موضوع برای تصاویر و فیلم‌هایی که جرائم یا خشونت پلیس را به تصویر می‌کشد نیز صدق می‌کند.

OpenAI ممکن است به حل چالشی که فناوری خودش آن را تشدید کرده است، کمک کند. هوش مصنوعی تولید شده از قبل (Generative AI) مانند ChatGPT یا سامانه ساخت تصویر شرکت DALL-E، این امکان را فراهم می‌کند که به راحتی اطلاعات نادرست را در مقیاس بزرگ ایجاد کرده و در رسانه‌های اجتماعی منتشر کند. اگرچه OpenAI قول داده است ChatGPT را بهتر کند، اما متاسفانه GPT-4 همچنان به طور آگاهانه خبرهای نادرست و اطلاعات گمراه‌کننده تولید می‌کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.