ابزار Nightshade میتواند مدلهای آیندهی پلتفرمهای هنری هوش مصنوعی مانند DALL-E و Stable Diffusion و Midjourney را گیج کند.
بهگزارش تکناک، ابزاری جدید به نام Nightshade به کاربران امکان میدهد تا آن را به اثر خلاقانه خود متصل و ازطریق این اثر، دادههای آموزش را خراب یا مخدوش کنند. این ابزار خواهد توانست مدلهای آیندهی پلتفرمهای هنری هوش مصنوعی (توانایی سیستم ها برای درک، ترکیب و استنتاج اطلاعات) مانند DALL-E و Stable Diffusion و Midjourney را گیج کند.
طبق گزارش MIT Technology Review، بن ژائو، استاد دانشگاه شیکاگو و یکی از خالقان Nightshade، امیدوار است تا تعادل را از شرکتهای هوش مصنوعی که از دادههای دارای حق نشر برای آموزش مدلهای خود استفاده کردهاند، بهسمت هنرمندان منتقل کند. در مقالهی پژوهشی Nightshade، آمده است که دادههای آموزشی استفادهشده در مدلهای هوش مصنوعی (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) متن به تصویر، درمعرض نوعی حمله قرار میگیرند که ابزار Nightshade آن را رها میکند. مقاله ادامه میدهد:
با کمال تعجب متوجه شدیم که تعداد متوسطی از حملات Nightshade میتوانند ویژگیهای عمومی در هوش مصنوعی مولد متن به تصویر را ناپایدار و درواقع توانایی آن را در تولید تصاویر معنادار غیرفعال کنند.
هنرمندانی که انگیزههای کافی برای استفاده از این مسیر دارند، میتوانند اثر خود را روی Glaze بارگذاری کنند. Glaze ابزاری است که خالقان Nightshade ساختهاند و کمک میکند سبک هنری هنرمندان پنهان بماند. بهعنوان مثال، نقاشی واقعگرا را به چیزی مانند کوبیسم تبدیل میکند. خالقان Nightshade در مقالهی خود پیشنهاد دادند که ابزار Nightshade و ابزارهای مشابه باید بهعنوان «آخرین دفاع برای خالقان محتوا دربرابر وب اسکرپرها» استفاده شود که قوانین مشارکتنکردن را شناسایی نمیکنند.
درحالحاضر، مسائل حق انتشار دربارهی محتوای تولیدشده با هوش مصنوعی و دادههای آموزشی بهدلیل نبود آییننامههای مرتبط، همچنان در بلاتکلیفی بهسر میبرند. بسیاری از شکایتهای حقوقی برای مبارزه با نقض حق انتشار هنوز در مراحل دادگاهی خود قرار دارند. دراینمیان، شرکتهایی مانند Adobe برای نشاندادن اینکه آیا اثری با هوش مصنوعی تولید شده است یا خیر، قصد دارند از نمادی خاص استفاده کنند.
بعضی از شکایتهای اولیه علیه پلتفرمهای هوش مصنوعی مولد روی موارد قانونیای تمرکز داشتند که به دادههای آموزشی مدلها دسترسی پیدا میکند؛ بهویژه در پلتفرمهای تبدیل متن به تصویر. ژانویهی۲۰۲۳، سه هنرمند از Stable Diffusion و Midjourney و وبسایت هنری DeviantArt شکایتی را مطرح و ادعا کردند که مدلهای این پلتفرمها بدون اجازه از آثار هنریشان استفاده کردهاند. همچنین، شرکت Getty Images قبل از ساختن ژنراتور تصویر هوش مصنوعی خود که براساس تصاویر دارای مجوز آن شرکت آموزش دیده است، از Stable Diffusion شکایت کرد.