شرکت مایکروسافت به تازگی مدلهای هوش مصنوعی DeepSeek با ابعاد 7B و 14B را برای کامپیوترهای +Copilot از طریق Azure AI Foundry منتشر کرد.
به گزارش تکناک، شرکت مایکروسافت در ژانویه امسال، برنامههای خود را برای عرضه نسخههای بهینهشده مدل DeepSeek-R1 با استفاده از NPU برای کامپیوترهای +Copilot که توسط پردازندههای Qualcomm Snapdragon X پشتیبانی میشوند، اعلام کرد. مدل DeepSeek-R1-Distill-Qwen-1.5B در فوریه برای اولین بار در AIToolkit برای VSCode در دسترس قرار گرفت.
در حال حاضر، این امکان که مدلهای 7B و 14B به طور محلی روی کامپیوترهای +Copilot مایکروسافت اجرا شوند، به توسعهدهندگان این امکان را میدهد که برنامههای جدیدی با قدرت هوش مصنوعی بسازند، که پیشتر امکانپذیر نبود.

این مدلها روی NPUها اجرا میشوند و در همین راستا کاربران میتوانند انتظار داشته باشند که توان محاسباتی مداوم هوش مصنوعی با تأثیر کمتر بر عمر باتری و عملکرد حرارتی کامپیوتر داشته باشند. همچنین پردازنده مرکزی (CPU) و پردازنده گرافیکی (GPU) برای انجام سایر وظایف در دسترس خواهند بود.
شرکت مایکروسافت اشاره کرد که از Aqua (ابزاری داخلی برای کموزنسازی خودکار)، برای کموزنسازی تمامی واریانتهای مدل DeepSeek به وزنهای int4 استفاده کرده است. متأسفانه، سرعت توکن مدلها بسیار پایین است. مایکروسافت گزارش کرده است، که مدل 14B تنها 8 توکن در ثانیه و مدل 1.5B نزدیک به 40 توکن در ثانیه سرعت دارند. این شرکت بیان کرد که در حال انجام بهینهسازیهای بیشتر برای بهبود سرعت است. انتظار میرود که با ادامه بهینهسازی عملکرد، تأثیر این مدلها بر کامپیوترهای +Copilot به طور چشمگیری افزایش یابد.
توسعهدهندگان علاقهمند میتوانند واریانتهای مدلهای DeepSeek با ابعاد 1.5B، 7B و 14B را از طریق افزونه AI Toolkit برای VS Code روی کامپیوترهای +Copilot مایکروسافت دانلود و اجرا کنند. مدل DeepSeek در فرمت ONNX QDQ بهینه شده است و به صورت مستقیم از Azure AI Foundry دانلود میشود. این مدلها در آینده برای کامپیوترهای +Copilot که توسط پردازندههای Intel Core Ultra 200V و AMD Ryzen پشتیبانی میشوند، در دسترس خواهند بود.
این اقدام مایکروسافت نشانهای از تلاش برای گسترش قابلیتهای هوش مصنوعی قدرتمند در دستگاهها است، که امکانات جدیدی برای برنامههای مبتنی بر هوش مصنوعی ایجاد میکنند.
دیدگاهها 1