مدلهای قدرتمند مبتنی بر هوش مصنوعی قادرند گازهای گلخانهای را نظارت کنند و رویدادهای آب و هوایی شدید را پیشبینی کنند. اما هزینه محیطی استفاده از مدلهایی با مصرف انرژی بالا چیست؟
به گزارش تکناک بشر احتمالاً در آستانه ایجاد قدرتمندترین فناوری تاکنون به نام هوش مصنوعی عمومی قرار دارد . زمانی که مدلهای یادگیری ماشین قادر خواهند بود به طور آگاهانه با فکر و احساس مانند انسانها عمل کنند. اما آیا این فناوری که در حال حاضر وجود دارد، قادر است به مشکلات پررنگ زمان ما – تغییرات آب و هوا – پاسخ دهد؟
مدلهای قدرتمند مبتنی بر هوش مصنوعی یا AI (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) امروزی قادرند گازهای گلخانهای را نظارت کنند و رویدادهای آب و هوایی شدید را پیشبینی کنند، مانند مدلی که به صورت مشترک توسط IBM و NASA توسعه یافته است. اما هزینه محیطی استفاده از مدلهای با مصرف انرژی بالا چیست؟ اثر کربن یک مرکز داده به مصرف برق، مصرف آب و اینکه چه زمانی نیاز به تعویض تجهیزات دارد، بستگی دارد.
براساس گزارشی از Climatiq، محاسبات ابری به 2.5٪ تا 3.7٪ از گازهای گلخانهای جهانی کمک میکند. این مقدار بیشتر از سهم پروازهای تجاری – 2.4٪ – است. این دادهها مربوط به چند سال پیش است و از آن زمان، نیازهای انرژی با پیشرفتهای در هوش مصنوعی افزایش یافته است.
مدل های هوش مصنوعی انرژی را می بلعند
مرکز محاسبات فوقالعاده لینکلن (LLSC) در دانشگاه MIT، افزایش قابل توجهی در تعداد برنامههای هوش مصنوعی در مراکز داده خود مشاهده کرد. به دلیل مصرف بیشتر انرژی، دانشمندان کامپیوتر بر روی یافتن راهکارهایی برای اجرای کارها به صورت کارآمدتر تمرکز کردند.
ویجی گادپالی، عضو ارشد هیئت علمی در مرکز محاسبات فوقالعاده لینکلن (LLSC) که رهبر تلاشهای تحقیق در حوزه مدیریت انرژی است، میگوید: “مدیریت انرژی در واقع یک حوزه تحقیقی نیست، زیرا همه به دادههای خود چسبیدهاند. کسی باید شروع کند و امیدواریم دیگران نیز این راه دنبال کنند.”
این تیم مصرف برق واحدهای پردازش گرافیکی (GPU) یعنی تراشههایی که به مدلهای هوش مصنوعی با مصرف انرژی بالا قدرت میبخشند محدود کردند. GPUهای NVIDIA که به آموزش مدل زبانی بزرگ GPT-3 شرکت OpenAI پرداختند، تقریباً 1300 مگاواتساعت برق مصرف میکردند که معادل مصرف یک خانوار آمریکایی در ماه است و تخمین زده میشود که OpenAI برای آموزش مدل GPT حدود 10,000 GPU استفاده کرده است.
با محدود کردن توان، پژوهشگران توانستند مصرف انرژی یک مدل هوش مصنوعی را به میزان 12-15٪ کاهش دهند. اما این کار همراه با نقاط ضعفی بود. حالا زمان آموزش مدلها بیشتر شده بود. در یک آزمایش، تیم مدل زبانی BERT شرکت گوگل را آموزش داد و توان GPU را به 150 وات محدود کرد. این باعث افزایش دو ساعتی در زمان آموزش شد (از 80 ساعت به 82 ساعت).
خنک کردن سیستم های هوش مصنوعی تشنه انرژی
این تیم هوش مصنوعی همچنین نرمافزاری را توسعه دادند که به مالکان مراکز داده امکان میدهد محدودیتها را در سیستم خود یا بر اساس هر کار به صورت جداگانه تنظیم کنند. پژوهشگران اثرات آن را در LLSC مشاهده کردهاند، جایی که GPUهای استفاده شده در سوپرکامپیوترهایشان با دمایی 30 درجه فارنهایت کمتر عمل میکنند. این باعث کاهش فشار بر سیستم خنککننده میشود و میتواند قابلیت اعتماد و عمر مفید تجهیزات سختافزاری را افزایش دهد.
به گزارش سازمان انرژی بینالمللی (IEA) گفته شده است: “در دهه آینده، تقاضا برای فناوریها و خدمات دیجیتال با هوش مصنوعی به طرز چشمگیری افزایش خواهد یافت. محدود کردن رشد انتشارات در این زمینه به پیشرفت در کارایی انرژی (شامل تحقیق و توسعه فناوری نسل آینده)، الکتریسیته بدون دیاکسید کربن و کاهش انتشارات زنجیره تأمین وابسته است.”
سازمان دیده بان انرژی جهان اضافه کرد: “سیاستهای قوی در حوزه تغییرات آب و هوا نیازی ضروری است تا اطمینان حاصل شود که فناوریهای دیجیتال و هوش مصنوعی برای کاهش انتشارات استفاده میشوند (و نه افزایش آنها).”
تیم هوش مصنوعی در دانشگاه MIT نیز راه دیگری برای کاهش مصرف انرژی پیدا کرده است. آموزش یک مدل هوش مصنوعی (توانایی سیستم ها برای درک، ترکیب و استنتاج اطلاعات) به میزان زیادی داده میطلبد و بررسی پارامترهای استفاده شده ممکن است نیازمند آزمون هزاران تنظیم باشد. این موضوع مصرف بزرگی از انرژی را به همراه دارد. بنابراین، تیم یک مدل توسعه داد که عملکرد احتمالی تنظیمات را پیشبینی میکند. مدلهایی که عملکرد آنها پایین است، در مرحله اولیه متوقف میشوند. تیم متوجه شد که این متوقف کردن زودهنگام منجر به کاهش 80 درصدی در مصرف انرژی مورد استفاده برای آموزش مدل میشود.