در یک پست وبلاگ، OpenAI ادعا میکند که قبلاً از GPT-4 برای توسعه و بهبود سیاستهای خود درباره محتوا، برچسبگذاری آنها و تصمیمگیری استفاده کرده است.
به گزارش تکناک، لیلیان ونگ، رئیس سیستمهای ایمنی OpenAI در این ارتباط گفت: من تمایل دارم افراد بیشتری را ببینم که اعتماد، ایمنی و اعتدال را به این روش به کار گیرند. این یک گام واقعاً خوب و رو به جلو در نحوه استفاده از هوش مصنوعی برای حل مسائل دنیای واقعی به روشی است که برای جامعه مفید است.
OpenAI سه مزیت عمده را در مقایسه با روش های سنتی برای تعدیل محتوا می بیند. اول، ادعا می کند که مردم سیاست ها را متفاوت تفسیر می کنند، در حالی که چنین دستگاه هایی در قضاوت های خود ثابت هستند. این دستورالعمل ها می توانند به اندازه یک کتاب باشند و دائماً تغییر کنند. اگرچه یادگیری و انطباق انسان ها به آموزش زیادی نیاز دارد، اما OpenAI استدلال می کند که مدل های زبان بزرگ می توانند سیاست های جدید را فوراً اجرا کنند.
دوم، GPT-4 ظاهراً می تواند در چند ساعت به توسعه یک سیاست جدید کمک کند. فرآیند تهیه پیشنویس، برچسبگذاری، جمعآوری بازخورد و پالایش معمولاً هفتهها یا چند ماه طول میکشد. سوم، OpenAI به رفاه افرادی اشاره می کند که به طور مداوم در معرض محتوای مضر، مانند ویدئوهای کودک آزاری یا شکنجه هستند.
پس از نزدیک به دو دهه استفاده از رسانههای اجتماعی مدرن و حتی سالهای بیشتری از جوامع آنلاین، تعدیل محتوا هنوز یکی از دشوارترین چالشها برای پلتفرمهای آنلاین است. متا، گوگل و تیک تاک به ارتش ناظرانی متکی هستند که باید یک سری محتوای وحشتناک و اغلب آسیب زا را بررسی کنند. اکثر آنها در کشورهای در حال توسعه با دستمزدهای پایین تر مستقر هستند، برای شرکت ها به صورت دورکاری کار می کنند و با چالش هایی درمورد سلامت روانی دست و پنجه نرم می کنند، زیرا آنها به دلیل شغلشان حداقل میزان مراقبت های روانی را دارند.
با این حال، OpenAI خود به شدت به کلیک ورکرها و کار انسانی متکی است. هزاران نفر که بسیاری از آنها در کشورهای آفریقایی مانند کنیا هستند، مطالب را حاشیه نویسی و برچسب گذاری می کنند. متن ها می توانند آزاردهنده باشند، شغل استرس زا است و دستمزد ضعیف است.
اگرچهOpenAI روش خود را جدید و انقلابی معرفی میکند، اما هوش مصنوعی سالهاست که برای تعدیل محتوا استفاده میشود. دیدگاه مارک زاکربرگ از یک سیستم خودکار کامل هنوز کاملاً مشخص نشده است، اما متا از الگوریتمهایی برای تعدیل اکثریت قریب به اتفاق محتوای مضر و غیرقانونی استفاده میکند. پلتفرمهایی مانند YouTube و TikTok روی سیستمهای مشابه حساب میکنند، بنابراین فناوری OpenAI ممکن است برای شرکتهای کوچکتری که منابع لازم برای توسعه فناوری خود را ندارند، جذاب باشد.
هر پلتفرمی آشکارا اعتراف می کند که نظارت کامل محتوای در مقیاس بالا، غیرممکن است. هم انسانها و هم دستگاه ها اشتباه میکنند و اگرچه درصد این اشتباه ممکن است کم باشد، اما هنوز هم میلیونها پست آسیب زا وجود دارد که بررسی نمی شوند و به همان اندازه محتوای بیضرر، پنهان یا حذف میشوند.
به طور خاص یک ناحیه خاکستری از محتوای گمراهکننده، اشتباه و تهاجمی وجود دارد که غیرقانونی نیست و چالش بزرگی را برای سامانههای خودکار ایجاد میکند. حتی کارشناسان انسانی هم با مشکل برچسبزنی اینگونه پستها روبرو هستند و دستگاهها به طور مکرر اشتباه میکنند. همین موضوع برای تصاویر و فیلمهایی که جرائم یا خشونت پلیس را به تصویر میکشد نیز صدق میکند.
OpenAI ممکن است به حل چالشی که فناوری خودش آن را تشدید کرده است، کمک کند. هوش مصنوعی تولید شده از قبل (Generative AI) مانند ChatGPT یا سامانه ساخت تصویر شرکت DALL-E، این امکان را فراهم میکند که به راحتی اطلاعات نادرست را در مقیاس بزرگ ایجاد کرده و در رسانههای اجتماعی منتشر کند. اگرچه OpenAI قول داده است ChatGPT را بهتر کند، اما متاسفانه GPT-4 همچنان به طور آگاهانه خبرهای نادرست و اطلاعات گمراهکننده تولید میکند.