برنامه اتحادیه اروپا برای نظارت بر ابزارهای هوش مصنوعی

پیش بینی میشود که با نهایی شدن قوانین فناوری توسط اتاحادیه هوش مصنوعی چشم‌انداز نظارتی هوش مصنوعی ارتقا یابد

سال گذشته برای هوش مصنوعی سال بزرگی بود و شاهد عرضه چند مدل از جمله متن به تصویرStable Diffusion و مولد متن ChatGPT بودیم.

به گزارش تکناک، امسال شاهد مدل‌های هوش مصنوعی با ترفندهای بیشتری خواهیم بود با این حال به نظر می رسد این روند با ورود ابزارهای نظارتی ابعاد تازه ای پیدا خواهد کرد.

یکی از پیش‌بینی‌ها این است که زمانی که قانون‌گذاران اتحادیه اروپا قوانین مربوط به فناوری را نهایی می‌کنند و سازمان‌های دولتی ایالات متحده مانند کمیسیون تجارت فدرال، قوانین را بررسی می‌کنند، چشم‌انداز نظارتی هوش مصنوعی را از دستورالعمل‌های اخلاقی مبهم به سطح بالاتر و شفاف تر ارتقا خواهند داد.

قانونگذاران در اروپا در حال کار بر روی قوانینی برای مدل‌های هوش مصنوعی تولیدکننده تصویر و متن هستند که اخیراً هیجانی زیادی را ایجاد کرده‌اند، مانند Stable Diffusion، LaMDA و ChatGPT. آن‌ها می‌توانند پایان دوران شرکت‌هایی را که مدل‌های هوش مصنوعی خود را بدون هیچ گونه حفاظت یا پاسخگویی در معرض عموم عرضه می‌کنند، اعلام کنند.

این مدل‌ها به طور فزاینده‌ای ستون فقرات بسیاری از برنامه‌های هوش مصنوعی را تشکیل می‌دهند، با این حال شرکت‌های سازنده آن‌ها به شدت در مورد نحوه ساخت و آموزش آن‌ها مخفی کاری می کنند. ما چیز زیادی در مورد نحوه عملکرد آنها نمی دانیم، و این موضوع درک اینکه مدل ها چگونه محتوای مضر یا نتایج مغرضانه تولید می کنند یا چگونه می توان مشکلات آنها را کاهش داد دشوار می کند.

اتحادیه اروپا در حال برنامه ریزی برای به روز رسانی مقررات فراگیر هوش مصنوعی آینده خود به نام قانون هوش مصنوعی است. این قوانین شرکت ها را مجبور می کند تا در مورد عملکرد درونی مدل های هوش مصنوعی خود رویکرد روشنی داشته باشند.

احتمالاً در نیمه دوم سال تصویب خواهد شد و پس از آن، اگر شرکت‌ها بخواهند محصولات هوش مصنوعی را در اتحادیه اروپا بفروشند یا از آن استفاده کنند یا با جریمه‌ای تا 6 درصد از کل گردش مالی سالانه جهانی خود مواجه می شوند یا باید از آن پیروی کنند.

اتحادیه اروپا این مدل‌های مولد را سیستم‌های «هوش مصنوعی همه‌منظوره» می‌نامد، زیرا می‌توان از آن‌ها برای موارد مختلف استفاده کرد. به عنوان مثال، مدل‌های زبان بزرگ مانند GPT-3 را می‌توان در چت ربات‌های خدمات مشتری یا ایجاد اطلاعات نادرست استفاده کرد. همچنین Stable Diffusion می‌تواند برای ساخت تصاویر برای کارت‌های تبریک یا تصاویر غیر اخلاقی استفاده کرد.

دراگوش تودوراچه، عضو لیبرال پارلمان اروپا که بخشی از تیم مذاکره کننده قانون هوش مصنوعی است، می گوید در حالی که نحوه دقیق تنظیم این مدل‌ها در قانون هوش مصنوعی هنوز مورد بحث داغ است، سازندگان مدل‌های هوش مصنوعی همه منظوره، مانند OpenAI، Google و DeepMind، احتمالاً باید در مورد اینکه چگونه مدل‌های خود می سازند و آموزش می دهند نگرش بازتری داشته باشند.

الکس انگلر، محقق حاکمیت هوش مصنوعی در موسسه بروکینگز، می‌گوید تنظیم این فناوری‌ها دشوار است، زیرا دو مجموعه متفاوت از مشکلات مرتبط با مدل‌های مولد وجود دارد که راه‌حل‌های خط‌مشی بسیار متفاوتی دارند. یکی انتشار محتوای مضر تولید شده توسط هوش مصنوعی، مانند تشویق خشونت و تنفر و هرزه‌نگاری، و دیگری زمانی است که شرکت‌ها این مدل‌های هوش مصنوعی را در فرآیندهای استخدام ادغام می‌کنند یا از آنها برای بررسی اسناد قانونی استفاده می‌کنند.

به اشتراک گذاری اطلاعات بیشتر در مورد مدل ها ممکن است به اشخاص ثالثی که در حال ساخت محصولات با استفاده از آنها هستند کمک کند.اما وقتی صحبت از انتشار محتوای مضر تولید شده توسط هوش مصنوعی می شود، قوانین سختگیرانه تری لازم است. انگلر پیشنهاد می‌کند که سازندگان مدل‌های تولیدی باید در مورد آنچه مدل‌ها تولید میکنند محدودیت وضع کند و بر خروجی‌های آن‌ها نظارت داشته باشند. همچنین کاربران را  از سوء استفاده از این فناوری ها منع کنند.

در حالی که شرکت‌های فناوری به‌طور سنتی از افشای اطلاعات مخفی خود بیزار بوده‌اند، فشار فعلی قانونگذاران ‌ برای شفافیت بیشتر و مسئولیت‌پذیری شرکتی ممکن است آغازگر عصر جدیدی باشد که در آن هوش مصنوعی به حریم خصوصی افراد احترام بیشتری گذارد.

هوش مصنوعی مولد همه چیز را تغییر می دهد

هر سال، خبرنگاران و ویراستاران MIT Technology Review  ده فناوری جدید را انتخاب می‌کنند که احتمالاً آینده را شکل می‌دهند. هوش مصنوعی مولد، در حال حاضر داغ ترین موضوع در زمینه هوش مصنوعی است.

چه اتفاقی می‌افتد؟

مدل‌های هوش مصنوعی متن به تصویر مانند DALL-E OpenAI، انقلابی به پا کرد و محبوبیت آن حتی سازندگان خود را شگفت زده کرد. واضح است که این تازه آغاز راه است و در حالی که باید منتظر بمانیم تا ببینیم این ابزارها دقیقاً چه تأثیر ماندگاری بر صنایع خلاق و در کل حوزه هوش مصنوعی خواهند داشت.

آنچه در راه است

احتمالاً سال آینده مدل‌های هوش مصنوعی را به ما معرفی می‌کند که می‌توانند کارهای مختلفی انجام دهند، از تولید تصاویر از متن به زبان‌های مختلف گرفته تا ربات‌های کنترل‌کننده. چندین زبان برای کنترل ربات ها هوش مصنوعی مولد در نهایت می تواند برای تولید طرح هایی برای همه چیز از ساختمان های جدید گرفته تا داروهای جدید استفاده شود. سم آلتمن، بنیانگذار OpenAI، به Will Douglas Heaven گفت. تصاویر، ویدئو، صدا در نهایت، همه چیز تولید خواهد شد و هوش مصنوعی مولد به همه جا نفوذ خواهد کرد.

بیت ها و بایت ها

مایکروسافت امیدوار است از مدل زبان قدرتمند برای رقابت با جستجوی گوگل استفاده کند. می تواند ویژگی جدید را در اوایل ماه مارس راه اندازی کند. مایکروسافت همچنین می خواهد از ChatGPT در نرم افزار پردازش کلمه Word و ایمیل های Outlook استفاده کند. اما این شرکت باید از دقیق بودن نتایج اطمینان حاصل کند.

اپل بی سر و صدا مجموعه ای از کتاب های صوتی را راه اندازی کرده است که به طور کامل توسط یک هوش مصنوعی روایت می شوند. اگرچه این حرکت ممکن است برای اپل هوشمندانه باشد – این شرکت قادر خواهد بود کتاب های صوتی را به سرعت و با کسری از هزینه های استخدام هنر پیشه های انسانی عرضه کند. این اقدام احتمالاً باعث واکنش شدید ائتلاف رو به رشد هنرمندانی خواهد شد که نگران استفاده از هوش مصنوعی هستند. (روزنامه گاردین)

شرکت‌های فناوری اغلب قانون‌گذاران را به خاطر درک نکردن فناوری که سعی در تنظیم آن دارند، مورد انتقاد قرار می‌دهند. دون بیر، یک دموکرات از ویرجینیا، امیدوار است که این وضعیت را تغییر دهد. او در حال تحصیل در مقطع کارشناسی ارشد در یادگیری ماشینی در دانشگاه جورج میسون است، با این امید که از دانشی که در این زمینه به دست می آورد برای هدایت مقررات و ترویج استفاده های اخلاقی از هوش مصنوعی در سلامت روان استفاده کند. (واشنگتن پست)

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.