ابرکامپیوتر ژوپیتر با ثبت نخستین شبیهسازی کامل ۵۰ کیوبیتی جهان، عصر تازهای در محاسبات کوانتومی آغاز کرد.
به گزارش سرویس فناوری تکناک، اروپا با ثبت رکوردی بیسابقه در حوزهی محاسبات، موفق شد نخستین شبیهسازی کامل یک رایانهی کوانتومی جهانی با ۵۰ کیوبیت را انجام دهد.
این دستاورد بزرگ که توسط پژوهشگران مرکز ابرکامپیوتر Jülich (JSC) در همکاری نزدیک با متخصصان انویدیا بهدست آمده است، نقطهی عطفی در تاریخ علم محاسبات محسوب میشود و نشان میدهد که رایانش کلاسیک هنوز توانایی شکستن مرزهای فیزیکی خود را دارد.
این دستاورد، رکورد پیشین شبیهسازی ۴۸ کیوبیتی را که باز هم توسط همین مرکز انجام شده بود، پشت سر گذاشت و قدرت بینظیر ابر کامپیوتر JUPITER را که در سپتامبر افتتاح شد، به نمایش گذاشت. هدف اصلی از این شبیهسازیها، فراهمکردن بستری برای توسعهی الگوریتمهای کوانتومی پیش از دستیابی به سختافزارهای کوانتومی پایدار است تا مسیر برای نسل آیندهی فناوری محاسبات هموار شود.
شبیهسازی رایانههای کوانتومی به دانشمندان این امکان را میدهد که پیش از ساختهشدن پردازندههای کوانتومی قدرتمند، الگوریتمهای مختلف را روی سیستمهای کلاسیک امتحان کنند. در این فرایند، پژوهشگران میتوانند الگوریتمهایی مانند VQE را که برای تحلیل و مدلسازی ساختار مولکولها استفاده میشود، بررسی کنند و ببینند آیا این روشها میتوانند رفتار شیمیایی مواد را دقیقتر پیشبینی کنند یا نه.
بیشتر بخوانید: ده ابررایانه قدرتمند جهان در سال ۲۰۲۵

همچنین الگوریتم QAOA که برای حل مسائل بهینهسازی در حوزههایی مثل لجستیک، مالی، انرژی و هوش مصنوعی کاربرد دارد، در همین شبیهسازیها آزمایش میشود. با این کار، دانشمندان میتوانند بفهمند این الگوریتمها در عمل چگونه کار میکنند، چه محدودیتهایی دارند و چه نوع سختافزار کوانتومی برای اجرای واقعی آنها لازم است.
به بیان ساده، این شبیهسازیها یک «زمین تمرین» هستند که امکان میدهند دانشمندان قبل از اینکه رایانههای کوانتومی واقعی آماده و قابلاعتماد شوند، الگوریتمها را بسازند، بهبود دهند و خطاهای احتمالی را پیدا کنند. این مرحله برای طراحی نسل بعدی پردازندههای کوانتومی و درک بهتر تواناییهای آنها کاملاً ضروری است.
بیشتر بخوانید: ابرکامپیوتر Otus با ۴۲ هزار هسته پردازشی در آلمان رونمایی شد
اما اجرای چنین شبیهسازیهایی روی سیستمهای کلاسیک با چالشهای عظیمی همراه است. هر کیوبیت جدیدی که به مدار اضافه میشود، میزان حافظه و توان محاسباتی مورد نیاز را دو برابر میکند. این رشد نمایی بهسرعت حتی توانمندترین سیستمهای جهان را به محدودیت میرساند. برای مقایسه، یک لپتاپ معمولی تنها قادر به شبیهسازی حدود ۳۰ کیوبیت است، در حالیکه اجرای شبیهسازی ۵۰ کیوبیتی در JUPITER به حدود ۲ پتابایت حافظه و هماهنگی کامل تراشههای GH200 نیاز داشت.
پروفسور کریستل میخیلسن از مرکز Jülich تأکید کرده است که تنها بزرگترین ابرکامپیوترهای جهان قادر به انجام چنین محاسباتی هستند و این پروژه نشان میدهد که پیشرفت در ابررایانش و پژوهشهای کوانتومی امروز بیش از هر زمان دیگری بههم پیوند خوردهاند.
در این شبیهسازی، هر دروازهی کوانتومی بر بیش از دو کوادریلیون عدد مختلط تأثیر میگذارد که باید بهصورت همزمان در میان هزاران گره محاسباتی هماهنگ شوند. چنین مقیاسی در گذشته تقریباً غیرقابلدستیابی بود، اما نسخهی تازهی نرمافزار شبیهساز JUQCS با نام JUQCS-50 این مانع را از میان برداشت.

نسخهی جدید با بهرهگیری از معماری حافظهی ترکیبی تراشههای GH200 دادهها را از حافظهی GPU به CPU منتقل میکند و در این فرایند، افت کارایی بسیار ناچیزی دارد. همچنین یک روش نوین فشردهسازی مبتنی بر کدگذاری بایت، نیاز به حافظه را تا هشت برابر کاهش میدهد و الگوریتمی پویا وظیفهی هماهنگی بیش از ۱۶ هزار تراشه را برعهده دارد.
پروفسور هانس دِ رایت، سرپرست پژوهش، اعلام کرده است که با JUQCS-50 میتوان شبیهسازی رایانههای کوانتومی جهانی را با دقتی بالا انجام داد و به پرسشهایی پاسخ گفت که هیچ پردازندهی کوانتومی موجود هنوز قادر به حل آنها نیست.
بیشتر بخوانید: ایلان ماسک: ناوگان تسلا میتواند به ابرکامپیوتر ۱۰۰ گیگاواتی تبدیل شود
قرار است این شبیهسازی در زیرساخت JUNIQ، یعنی «زیرساخت یکپارچهی محاسبات کوانتومی مرکز Jülich» ادغام شود تا پژوهشگران و شرکتها بتوانند به آن دسترسی پیدا کنند. JUQCS-50 علاوه بر نقش پژوهشی، معیاری برای ارزیابی نسل آیندهی ابرکامپیوترها نیز خواهد بود.
این پروژه در قالب برنامهی JUREAP شکل گرفت، جایی که متخصصان Jülich و مهندسان NVIDIA از همان مراحل طراحی سختافزار تا توسعهی نرمافزار بهصورت مشترک همکاری داشتند. به گفتهی دکتر آندریاس هرتن، این همکاری نزدیک از ابتدای ساخت ابرکامپیوتر سبب شد تا هماهنگی میان نرمافزار و سختافزار بهصورت کامل برقرار شود.
دستاورد JUPITER، گامی تعیینکننده در مسیر آزمون الگوریتمهای کوانتومی در مقیاس واقعی با استفاده از سامانههای کلاسیک است و نقطهی آغازی برای همگرایی سریعتر میان محاسبات کوانتومی و ابرکامپیوترها در آیندهی نزدیک بهشمار میآید.

















