سال گذشته برای هوش مصنوعی سال بزرگی بود و شاهد عرضه چند مدل از جمله متن به تصویرStable Diffusion و مولد متن ChatGPT بودیم.
به گزارش تکناک، امسال شاهد مدلهای هوش مصنوعی با ترفندهای بیشتری خواهیم بود با این حال به نظر می رسد این روند با ورود ابزارهای نظارتی ابعاد تازه ای پیدا خواهد کرد.
یکی از پیشبینیها این است که زمانی که قانونگذاران اتحادیه اروپا قوانین مربوط به فناوری را نهایی میکنند و سازمانهای دولتی ایالات متحده مانند کمیسیون تجارت فدرال، قوانین را بررسی میکنند، چشمانداز نظارتی هوش مصنوعی را از دستورالعملهای اخلاقی مبهم به سطح بالاتر و شفاف تر ارتقا خواهند داد.
قانونگذاران در اروپا در حال کار بر روی قوانینی برای مدلهای هوش مصنوعی تولیدکننده تصویر و متن هستند که اخیراً هیجانی زیادی را ایجاد کردهاند، مانند Stable Diffusion، LaMDA و ChatGPT. آنها میتوانند پایان دوران شرکتهایی را که مدلهای هوش مصنوعی خود را بدون هیچ گونه حفاظت یا پاسخگویی در معرض عموم عرضه میکنند، اعلام کنند.
این مدلها به طور فزایندهای ستون فقرات بسیاری از برنامههای هوش مصنوعی را تشکیل میدهند، با این حال شرکتهای سازنده آنها به شدت در مورد نحوه ساخت و آموزش آنها مخفی کاری می کنند. ما چیز زیادی در مورد نحوه عملکرد آنها نمی دانیم، و این موضوع درک اینکه مدل ها چگونه محتوای مضر یا نتایج مغرضانه تولید می کنند یا چگونه می توان مشکلات آنها را کاهش داد دشوار می کند.
اتحادیه اروپا در حال برنامه ریزی برای به روز رسانی مقررات فراگیر هوش مصنوعی آینده خود به نام قانون هوش مصنوعی است. این قوانین شرکت ها را مجبور می کند تا در مورد عملکرد درونی مدل های هوش مصنوعی خود رویکرد روشنی داشته باشند.
احتمالاً در نیمه دوم سال تصویب خواهد شد و پس از آن، اگر شرکتها بخواهند محصولات هوش مصنوعی را در اتحادیه اروپا بفروشند یا از آن استفاده کنند یا با جریمهای تا 6 درصد از کل گردش مالی سالانه جهانی خود مواجه می شوند یا باید از آن پیروی کنند.
اتحادیه اروپا این مدلهای مولد را سیستمهای «هوش مصنوعی همهمنظوره» مینامد، زیرا میتوان از آنها برای موارد مختلف استفاده کرد. به عنوان مثال، مدلهای زبان بزرگ مانند GPT-3 را میتوان در چت رباتهای خدمات مشتری یا ایجاد اطلاعات نادرست استفاده کرد. همچنین Stable Diffusion میتواند برای ساخت تصاویر برای کارتهای تبریک یا تصاویر غیر اخلاقی استفاده کرد.
دراگوش تودوراچه، عضو لیبرال پارلمان اروپا که بخشی از تیم مذاکره کننده قانون هوش مصنوعی است، می گوید در حالی که نحوه دقیق تنظیم این مدلها در قانون هوش مصنوعی هنوز مورد بحث داغ است، سازندگان مدلهای هوش مصنوعی همه منظوره، مانند OpenAI، Google و DeepMind، احتمالاً باید در مورد اینکه چگونه مدلهای خود می سازند و آموزش می دهند نگرش بازتری داشته باشند.
الکس انگلر، محقق حاکمیت هوش مصنوعی در موسسه بروکینگز، میگوید تنظیم این فناوریها دشوار است، زیرا دو مجموعه متفاوت از مشکلات مرتبط با مدلهای مولد وجود دارد که راهحلهای خطمشی بسیار متفاوتی دارند. یکی انتشار محتوای مضر تولید شده توسط هوش مصنوعی، مانند تشویق خشونت و تنفر و هرزهنگاری، و دیگری زمانی است که شرکتها این مدلهای هوش مصنوعی را در فرآیندهای استخدام ادغام میکنند یا از آنها برای بررسی اسناد قانونی استفاده میکنند.
به اشتراک گذاری اطلاعات بیشتر در مورد مدل ها ممکن است به اشخاص ثالثی که در حال ساخت محصولات با استفاده از آنها هستند کمک کند.اما وقتی صحبت از انتشار محتوای مضر تولید شده توسط هوش مصنوعی می شود، قوانین سختگیرانه تری لازم است. انگلر پیشنهاد میکند که سازندگان مدلهای تولیدی باید در مورد آنچه مدلها تولید میکنند محدودیت وضع کند و بر خروجیهای آنها نظارت داشته باشند. همچنین کاربران را از سوء استفاده از این فناوری ها منع کنند.
در حالی که شرکتهای فناوری بهطور سنتی از افشای اطلاعات مخفی خود بیزار بودهاند، فشار فعلی قانونگذاران برای شفافیت بیشتر و مسئولیتپذیری شرکتی ممکن است آغازگر عصر جدیدی باشد که در آن هوش مصنوعی به حریم خصوصی افراد احترام بیشتری گذارد.
هوش مصنوعی مولد همه چیز را تغییر می دهد
هر سال، خبرنگاران و ویراستاران MIT Technology Review ده فناوری جدید را انتخاب میکنند که احتمالاً آینده را شکل میدهند. هوش مصنوعی مولد، در حال حاضر داغ ترین موضوع در زمینه هوش مصنوعی است.
چه اتفاقی میافتد؟
مدلهای هوش مصنوعی متن به تصویر مانند DALL-E OpenAI، انقلابی به پا کرد و محبوبیت آن حتی سازندگان خود را شگفت زده کرد. واضح است که این تازه آغاز راه است و در حالی که باید منتظر بمانیم تا ببینیم این ابزارها دقیقاً چه تأثیر ماندگاری بر صنایع خلاق و در کل حوزه هوش مصنوعی خواهند داشت.
آنچه در راه است
احتمالاً سال آینده مدلهای هوش مصنوعی را به ما معرفی میکند که میتوانند کارهای مختلفی انجام دهند، از تولید تصاویر از متن به زبانهای مختلف گرفته تا رباتهای کنترلکننده. چندین زبان برای کنترل ربات ها هوش مصنوعی مولد در نهایت می تواند برای تولید طرح هایی برای همه چیز از ساختمان های جدید گرفته تا داروهای جدید استفاده شود. سم آلتمن، بنیانگذار OpenAI، به Will Douglas Heaven گفت. تصاویر، ویدئو، صدا در نهایت، همه چیز تولید خواهد شد و هوش مصنوعی مولد به همه جا نفوذ خواهد کرد.
بیت ها و بایت ها
مایکروسافت امیدوار است از مدل زبان قدرتمند برای رقابت با جستجوی گوگل استفاده کند. می تواند ویژگی جدید را در اوایل ماه مارس راه اندازی کند. مایکروسافت همچنین می خواهد از ChatGPT در نرم افزار پردازش کلمه Word و ایمیل های Outlook استفاده کند. اما این شرکت باید از دقیق بودن نتایج اطمینان حاصل کند.
اپل بی سر و صدا مجموعه ای از کتاب های صوتی را راه اندازی کرده است که به طور کامل توسط یک هوش مصنوعی روایت می شوند. اگرچه این حرکت ممکن است برای اپل هوشمندانه باشد – این شرکت قادر خواهد بود کتاب های صوتی را به سرعت و با کسری از هزینه های استخدام هنر پیشه های انسانی عرضه کند. این اقدام احتمالاً باعث واکنش شدید ائتلاف رو به رشد هنرمندانی خواهد شد که نگران استفاده از هوش مصنوعی هستند. (روزنامه گاردین)
شرکتهای فناوری اغلب قانونگذاران را به خاطر درک نکردن فناوری که سعی در تنظیم آن دارند، مورد انتقاد قرار میدهند. دون بیر، یک دموکرات از ویرجینیا، امیدوار است که این وضعیت را تغییر دهد. او در حال تحصیل در مقطع کارشناسی ارشد در یادگیری ماشینی در دانشگاه جورج میسون است، با این امید که از دانشی که در این زمینه به دست می آورد برای هدایت مقررات و ترویج استفاده های اخلاقی از هوش مصنوعی در سلامت روان استفاده کند. (واشنگتن پست)