آغاز عصری جدید در هوش مصنوعی با شتاب‌دهنده‌های Gaudi 2 اینتل

اینتل اعلام کرد که شتاب‌دهنده‌های هوش مصنوعی Gaudi 2 این شرکت جایگزین مناسبی برای تراشه‌های انویدیا هستند.

به‌گزارش تک‌ناک، Hugging Face شرکت فرانسوی‌آمریکایی است که در‌زمینه توسعه ابزارهای رایانه‌ای برای ساخت برنامه‌های کاربردی با استفاده از یادگیری ماشین فعالیت می‌کند. Hugging Face توانایی تولید متن را با استفاده از مدل‌های Llama 2 با پارامترهای حداکثر ۷۰ میلیارد نشان داده است. اینتل با گسترش اکوسیستم نرم‌افزار هوش مصنوعی خود، در حال هدف قراردادن محبوب‌ترین کارهای هوش مصنوعی است که شامل مدل‌های زبان بزرگ (LLM) می‌شود.

این کار با استفاده از Habana Optimum که به‌عنوان رابط کتابخانه‌های ترانسفورماتور و پخش‌کننده عمل می‌کند و پردازنده‌های Habana Gaudi اینتل مانند Gaudi 2 امکان‌پذیر شده است. اینتل پیش‌از‌این قابلیت‌ها و عملکرد هوش مصنوعی پردازنده‌های Gaudi 2 خود را در‌برابر پردازنده‌های گرافیکی A100 انویدیا، یکی از گزینه‌های محبوب در بازار‌، به‌نمایش گذاشته است؛ اما Gaudi 2 در ارائه عملکرد سریع‌تر با TCO رقابتی، عملکرد تحسین‌برانگیزی دارد.

در آخرین دموی، Hugging Face با استفاده از همان خط لوله Habana Optimum و شتاب‌دهنده هوش مصنوعی Gaudi 2 اینتل، سهولت تولید متن با Llama 2 (۷ میلیارد، ۱۳ میلیارد، ۷۰ میلیارد) را نشان می‌دهد. نتیجه نهایی نشان می‌دهد که تراشه Gaudi 2 نه‌تنها ورودی‌های تکی یا چندگانه را پذیرفت؛ بلکه استفاده از آن بسیار آسان بود و می‌توانست افزونه‌های سفارشی را درون اسکریپت‌ها مدیریت کند. Hugging Face درباره این موضوع توضیح می‌دهد:

با انقلاب هوش مصنوعی مولد (GenAI)، تولید متن با مدل‌های ترانسفورماتور متن‌باز مانند Llama 2 به موضوع داغ محافل تبدیل شده است. علاقه‌مندان به هوش مصنوعی و توسعه‌دهندگان به‌دنبال استفاده از قابلیت‌های تولید متن چنین مدل‌هایی برای استفاده‌ها و برنامه‌های کاربردی خود هستند. این مقاله نشان می‌دهد که تولید متن با خانواده مدل‌های Llama 2 (۷ میلیارد، ۱۳ میلیارد و ۷۰ میلیارد) با استفاده از Optimum Habana و کلاس خط لوله سفارشی چقدر آسان است. شما می‌توانید مدل‌ها را فقط با چند خط کد اجرا کنید!

این کلاس خط لوله سفارشی برای ارائه انعطاف‌پذیری و سهولت استفاده عالی طراحی شده است. علاوه‌بر‌این، سطح چشمگیری از انتزاع را ارائه می‌دهد و تولید متن انتها‌به‌انتها را انجام می‌دهد که شامل پیش‌پردازش و پس‌پردازش می‌شود. روش‌های مختلفی برای استفاده از خط لوله وجود دارد. شما می‌توانید اسکریپت run_pipeline.py را از مخزن Habana Optimum اجرا و کلاس خط لوله را به اسکریپت‌های پایتون خود اضافه یا کلاس‌های LangChain را با آن راه‌اندازی کنید.

ما خط لوله تولید متن سفارشی را روی شتاب‌دهنده هوش مصنوعی Gaudi 2 اینتل ارائه کردیم که ورودی‌های تکی یا چندگانه را به‌عنوان ورودی می‌پذیرد. این خط لوله ازنظر اندازه مدل و پارامترهای مؤثر بر کیفیت تولید متن، انعطاف‌پذیری بیشتری ارائه می‌دهد. علاوه‌بر‌این، استفاده از آن در اسکریپت‌های شما بسیار آسان و با LangChain سازگار است.

اینتل به شتاب‌بخشیدن به بخش هوش مصنوعی خود در سال‌های آینده متعهد است. امسال، این شرکت برنامه‌ریزی کرده است تا سومین نسل از Gaudi را با نام Gaudi 3 معرفی کند که انتظار می‌رود از گره فرایندی 5 نانومتری استفاده کند و گزارش شده است که از انویدیا H100 با قیمت بسیار ارزان‌تر سریع‌تر است.

علاوه‌براین، تیم آبی (اینتل) برنامه‌ریزی کرده است تا با پردازنده گرافیکی نسل بعدی فالکن شورز به طراحی کاملاً داخلی منتقل شود. این شرکت توانایی‌های هوش مصنوعی مانند رابط کاربری Llama 2 را با PyTorch برای پردازنده‌های گرافیکی سری Arc A مصرفی خود باز می‌کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.