سیستمهای مبتنی بر هوش مصنوعی نه تنها حجم زیادی از دادهها را برای آموزش مصرف میکنند، بلکه برای کارکردن به مقدار زیادی برق نیز نیاز دارند.
به گزارش تکناک، یک مطالعه اخیر مصرف انرژی و ردپای کربن چندین مدل زبان بزرگ اخیر را محاسبه کرد. یکی از آنها، ChatGPT است که با 10000 پردازنده گرافیکی انویدیا کار میکند، 1287 مگاوات ساعت برق مصرف میکند که معادل انرژی مصرف شده توسط 121 خانه برای یک سال در آمریکا است.
همانطور که ما به سمت ساختن یکی از بزرگترین پیشرفت های تکنولوژیکی که بشر تاکنون به آن دست یافته است سرعت می گیریم، باید از خود بپرسیم که جبران این پیشرفت چیست؟ در تفسیری که در ژورنال Joule منتشر شد، نویسنده الکس دی وریس استدلال میکند که در آینده، انرژی مورد نیاز برای استفاده از ابزارهای هوش مصنوعی ممکن است بیشتر از نیازهای انرژی برخی از کشورهای کوچک باشد.
در سال 2021، کل مصرف برق گوگل 18.3 تراوات ساعت بود که هوش مصنوعی 10٪ تا 15٪ از این کل را تشکیل می داد. بدترین سناریو نشان می دهد که هوش مصنوعی گوگل به تنهایی می تواند به اندازه کشوری مانند ایرلند (29.3 تراوات ساعت در سال) برق مصرف کند که در مقایسه با مصرف انرژی مرتبط با هوش مصنوعی قبلی افزایش قابل توجهی دارد.
با گذشت زمان، هوش مصنوعی انرژی بیشتری مصرف خواهد کرد
از زمانی که شرکت OpenAI در اواخر سال 2022 ChatGPT را به جهان معرفی کرد، رونق هوش مصنوعی مولد وجود دارد. این امر منجر به افزایش تقاضا برای تراشههای هوش مصنوعی شده است. انویدیا که در خط مقدم عرضه تراشههای رده بالا قرار دارد، در سه ماهه منتهی به جولای 2023 درآمدی معادل 16 میلیارد دلار گزارش کرده است. این بدان معناست که تقاضا برای تراشههای هوش مصنوعی تنها در حال افزایش است.
اخیراً نیز تغییری در شرکتهای بیشتری وجود داشته است که تراشههای خود را برای برآورده کردن نیازهای سنگین هوش مصنوعی توسعه میدهند. گوگل و آمازون در حال حاضر تراشه های هوش مصنوعی خود را دارند، در حالی که شایعات مبنی بر اینکه مایکروسافت از سخت افزار تراشه داخلی خود در ماه آینده رونمایی خواهد کرد، وجود دارد. مایکروسافت همچنین سرمایهگذاریهای سنگینی در OpenAI دارد که طبق گزارشها، این شرکت نیز در مراحل ابتدایی توسعه تراشههای خود یا خرید یک شرکت نیمهرسانا است که این کار را برای آنها انجام میدهد.
همه اینها به این معنی است که افزایش چشمگیری در ردپای انرژی صنعت هوش مصنوعی وجود خواهد داشت. وریس توضیح می دهد: به عنوان مثال، شرکت هایی مانند Google Alphabet می توانند تقاضای انرژی خود را به میزان قابل توجهی افزایش دهند، اگر هوش مصنوعی مولد در هر جستجوی گول ادغام شود.
غول بعدی مصرف انرژی
طبق گزارش SemiAnalysis، تخمین زده می شود که ادغام یک چت ربات مانند ChatGPT با هر جستجوی گوگل به 51،2820 سرور A100 HGX NVIDIA نیاز دارد که به معنای بیش از 4 میلیون GPU است. در تقاضای برق 6.5 کیلووات برای هر سرور، این به مصرف برق روزانه 80 گیگاوات ساعت و مصرف سالانه 29.2 تراوات ساعت تبدیل می شود.
نویسنده خاطرنشان کرد که ابزارهای هوش مصنوعی (artificial intelligence : field of computer science and engineering practices for intelligence demonstrated by machines and intelligent agents) یک مرحله آموزش اولیه دارند و سپس یک مرحله استنتاج دارند. مرحله آموزش پر انرژی ترین مرحله است و مرکز تحقیقات پایداری هوش مصنوعی تاکنون بوده است. مرحله استنتاج زمانی است که این ابزارها بر اساس داده هایی که روی آنها آموزش دیده اند خروجی تولید می کنند. نگارنده از جامعه علمی خواسته است که به این مرحله توجه بیشتری کنند.
وریس گفت: OpenAI برای پشتیبانی از ChatGPT به 3617 سرور HGX A100 NVIDIA با مجموع 28936 پردازنده گرافیکی نیاز داشت که به معنای تقاضای انرژی 564 مگاوات ساعت در روز است. در مقایسه با 1287 مگاوات ساعت تخمین زده شده در مرحله آموزشی GPT-3، تقاضای انرژی فاز استنتاج به طور قابل توجهی بالاتر به نظر می رسد.
نویسنده در پایان خاطرنشان کرد که خیلی خوش بینانه است که انتظار داشته باشیم بهبود در کارایی سخت افزار و نرم افزار به طور کامل هرگونه تغییر طولانی مدت در مصرف برق مرتبط با هوش مصنوعی را جبران کند. اما تلاش ها در حال انجام است. Interesting Engineering دیروز (9 اکتبر) در مورد تیمی از محققان MIT گزارش داد که در حال یافتن راه هایی برای کاهش مصرف برق مدل های هوش مصنوعی هستند. آنها توانسته اند مصرف انرژی یک مدل هوش مصنوعی را با محدود کردن توان مصرفی GPUهایی که آن را تغذیه می کنند، 12 تا 15 درصد کاهش دهند.
وریس همچنین پیشنهاد کرد که پردازندههای گرافیکی قدیمیتر و استفادهنشده که در استخراج ارز دیجیتال اتریوم استفاده میشوند، میتوانند مجدداً استفاده شوند.