مایکروسافت فیلترینگ را به Bing Dall-E 3 آورد

مایکروسافت به دلیل ترس از جنجال، فیلترینگ را در ابزار ایجاد تصاویر  بینگ مجهز به Bing Dall-E 3 به شدت افزایش داده است.

به گزارش تکناک، مایکروسافت به منظور جلب کاربران از گوگل، برخی از سامانه‌های مولد Open AI را در بینگ گنجانده است.

اگرچه این ادغام ها کمکی به افزایش حجم جستجوی بینگ نکرده است، اما برخی از جذابیت ها را برای این پلتفرم ایجاد کرده است.

اخیراً، ابزار ایجاد تصاویر هوش مصنوعی بینگ به طور قابل توجهی ارتقا یافته و به الگوریتم Dall-E 3 مجهز شد.

این ابزار قدرتمند قادر است تصاویر واقع‌گرایانه‌ای را از راهنماهای ساده ایجاد کند، اما پس از بروز برخی از جدل‌ها، مایکروسافت به طور گسترده‌ای اعمال فیلتر کرده است. حتی دکمه تصادفی سازی تصاویر Microsoft (American multinational technology corporation) نیز خود را سانسور می‌کند.

بینگ این روزها بسیار مفیدتر شده است و لزوماً برای جستجو نیست. مایکروسافت این واقعیت را پنهان نکرده است که بینگ از نظر حجم جستجو از گوگل عقب است و تقریباً 3 درصد از سهم بازار جهانی را به خود اختصاص داده است. با وجود تعبیه آن در ویندوز، کاربران به دنبال مزایای بیشتر گوگل می‌گردند، که به طور قطع در بیشتر حالت‌ها نتایج دقیق و به‌روزتری ارائه می‌دهد.

بینگ برای جستجوی پایه مناسب‌تر است، با این حال، به دلایل دیگری همچنان یک گزینه قوی است. همچنین، هوش مصنوعی مولد به تازگی به بینگ کمک کرده است تا کمی توانمندی بیشتری پیدا کند.

مایکروسافت یک همکاری بزرگ با OpenAI برای یکپارچه‌سازی ابزارهای زبانی  ChatGPT و سامانه‌های ایجاد تصویر Dall-E را به صورت مستقیم در موتور جستجو بینگ امضا کرد. در آینده، Dall-E همچنین به Microsoft Paint می‌آید و کمک‌هایی که توسط ChatGPT قدرت گرفته‌اند، به صورت مستقیم در ویندوز 11 با Windows Copilot ظاهر می‌شوند.

ابزار ایجاد تصاویر بینگ به تازگی با استفاده از الگوریتم جدید Dall-E 3 قدرت قابل توجهی به دست آورده است. کیفیت تصاویر تولید شده نسبت به نسخه‌های قبلی به طور نمایی بهبود یافته است، اگرچه همراه با برخی از جنجال ها نیز همراه است.

محدودیت ها برای این نوع فناوری بسیار مهم هستند، زیرا باعث جلوگیری از تولید تصاویری نه تنها توهین‌آمیز بلکه مجرمانه، گمراه‌کننده یا حتی غیرقانونی هستند. با این حال، برخی از کاربران فکر می‌کنند که ممکن است مایکروسافت کمی بیش از حد پیش رفته باشد.

بینگ خودش را سانسور می کند

در حین نوشتن این مقاله (تماماً به تنهایی و بدون استفاده از ChatGPT)، من (نویسنده) سعی کردم یک بنر با متن “مردی با چکش بزرگ یک رک سرور را شکست می‌دهد” ایجاد کنم، اما بینگ تصمیم گرفت که چنین تصویری خلاف سیاست‌های خود است.

هفته گذشته، توانستم تصاویر هالووینی از شخصیت‌های محبوبی که تحت حق کپی رسانه‌ای هستند را در سناریوهای زامبی‌ها تولید کنم. می‌توانید بگویید که هر دوی این دستورالعمل‌ها محتوای خشونت‌آمیزی دارند که مایکروسافت (شرکت فناوری آمریکایی) ترجیح می‌دهد آن‌ها را تولید نکند، اما کاربران متوجه می‌شوند که حتی دستورالعمل‌های بی‌خطر نیز سانسور می‌شوند.

ابزار ایجاد تصاویر بینگ دارای دکمه “من را سورپرایز کن” است که با فشار دادن آن، تصویری که خود بینگ انتخاب می‌کند را برای شما ایجاد می‌کند. با این حال، ابزار ایجاد تصاویر بینگ همچنین خودش را سانسور می‌کند.

یک کاربر دیگر پس از درخواست “یک گربه با کلاه و بوت کابوی” از دسترس خارج شد، که به دلایلی بینگ آن را توهین‌آمیز می‌داند.

در حال نوشتن این پیام، بینگ برای من پیام “بابت صبر شما سپاسگزاریم. تیم در حال کوشش برای رفع مشکل است. لطفاً بعداً دوباره امتحان کنید.” را نشان می‌دهد که نشان می‌دهد سرویس بینگ یا بار زیادی دارد یا هنوز در حال بهینه‌سازی است.

متعادل کردن سرگرمی، عملکرد و فیلترها

یکی از بزرگترین چالش‌هایی که مایکروسافت با ابزارهای فناوری هوش مصنوعی خود روبرو خواهد شد، فیلتراسیون است. اگر مایکروسافت می‌خواهد یکی از شرکت‌هایی باشد که هوش مصنوعی را به جامعه عمومی بیاورد این یک مسئله است که باید آن را به درستی انجام دهد.

در حال حاضر، می توان گفت که Bing و Open AI در سانسور بیش از حد پیش رفته اند. اگر تعداد زیادی هشدار دریافت کنید، ممکن است از استفاده از سرویس محروم شوید، که زمانی که راهنماها به طور کلی گنگ و مبهم هستند، به نظر می‌رسد خنده‌دار است.

اگر Bing و Windows Copilot تنها نتایج پاکسازی شده را تولید کنند، هدف اصلی از این ابزارها را ضایع می‌کنند. جالب خواهد بود ببینیم مایکروسافت و رقبایش چگونه تلاش می‌کنند تا بین سرگرمی، کارایی و فیلتراسیون تعادل برقرار کنند و چگونه عوامل بدبین در نسخه‌های جیلبریک شده، این نوع فناوری فرصت‌ها را می‌بینند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.