شرکت OpenAI اعلام کرده که تا پایان سال ۲۰۲۵ قرار است بیش از یک میلیون GPU فعال در اختیار داشته باشد، و حالا سم آلتمن مدیرعامل این شرکت هدف خود را افزایش این ظرفیت تا ۱۰۰ برابر یعنی نزدیک به ۱۰۰ میلیون GPU تعیین کرده است.
به گزارش تکناک، اما این تازه آغاز ماجراست. آلتمن صراحتاً اعلام کرده که هدف نهایی چیزی بهمراتب بلندپروازانهتر است: افزایش صد برابری توان پردازشی، معادل ۱۰۰ میلیون GPU.
تامزهاردور مینویسد که در نخستین گام از این استراتژی توسعهمحور، OpenAI بهزودی از مرورگر وب مبتنی بر هوش مصنوعی خود رونمایی خواهد کرد؛ محصولی که طبق گزارش رویترز، در هفتههای آینده منتشر میشود و رقابت مستقیمی با Google Chrome خواهد داشت. این مرورگر بهصورت عمیق با قابلیتهای ChatGPT و ابزار جدید ChatGPT Agent یکپارچه خواهد شد؛ عاملی که به کاربران امکان میدهد بسیاری از وظایف رایانهای خود را بدون دخالت دستی، صرفاً با دستورهای طبیعی انجام دهند.
در پیامی که سام آلتمن در شبکه اجتماعی X منتشر کرد، او نوشت:
«بسیار به تیمم افتخار میکنم… اما حالا باید روی راهی کار کنند که این عدد را ۱۰۰ برابر کنیم! lol»
هرچند این پیام با «lol» پایان یافته، اما از سابقه آلتمن پیداست که این جمله بیشتر یک هشدار جدی برای آینده است تا یک شوخی اینترنتی.
برای درک بزرگی این هدف، کافی است بدانیم که شرکت xAI ایلان ماسک، که اخیراً با مدل Grok 4 سروصدای زیادی به پا کرده، روی چیزی در حدود ۲۰۰ هزار GPU Nvidia H100 کار میکند. اگر OpenAI به رقم ۱ میلیون برسد، پنج برابر بیشتر از آن خواهد بود – و آلتمن باز هم آن را کافی نمیداند.
رسیدن به عدد ۱۰۰ میلیون GPU، تنها یک آرزوی فنی نیست، بلکه معادل حدود ۳ تریلیون دلار هزینه در بازار فعلی سختافزار خواهد بود؛ رقمی معادل تولید ناخالص داخلی بریتانیا. این عدد بدون در نظر گرفتن هزینههای برق، خنکسازی، تأسیسات، و توسعه مراکز داده محاسبه شده است.

در شرایطی که Nvidia از قبل تا سال آینده برای چیپهای H100 خود سفارش پر دارد، حتی تولید چنین تعداد تراشهای در کوتاهمدت، غیرممکن به نظر میرسد. با این حال، آلتمن با تأکید بر اهمیت «مقیاس»، از این هدف بهعنوان زمینهسازی برای دستیابی به هوش عمومی مصنوعی (AGI) یاد میکند؛ مسیری که ممکن است با تراشههای اختصاصی، معماریهای جدید یا فناوریهایی که هنوز اختراع نشدهاند محقق شود.
برنامه OpenAI فقط بر کاغذ باقی نمانده است. این شرکت هماکنون در حال راهاندازی یکی از بزرگترین مراکز داده جهان در ایالت تگزاس است؛ سایتی که در حال حاضر ۳۰۰ مگاوات برق مصرف میکند – معادل مصرف یک شهر متوسط – و تا اواسط سال ۲۰۲۶ به ۱ گیگاوات خواهد رسید.
اپراتورهای شبکه برق تگزاس نسبت به این رشد افسارگسیخته هشدار دادهاند. تأمین پایداری ولتاژ، فرکانس و پاسخگویی به بارهای ناگهانی در چنین ابعادی، نیازمند ارتقاء سریع و پرهزینه زیرساختهای برقرسانی در سطح ایالتی است. با این حال، OpenAI مصمم است راه خود را ادامه دهد.
OpenAI تنها به سختافزارهای Nvidia متکی نیست. در حالی که Microsoft Azure همچنان ستون فقرات زیرساخت ابری این شرکت محسوب میشود، OpenAI با Oracle برای ساخت مراکز داده اختصاصی وارد همکاری شده و همچنین در حال ارزیابی TPUهای گوگل برای افزایش تنوع در معماری محاسباتی خود است.
در این میان، غولهای فناوری نظیر Meta، آمازون و گوگل نیز به رقابت سختافزاری پیوستهاند و با توسعه تراشههای سفارشی و حافظههای پرسرعت HBM در تلاشاند تا محدودیتهای مدلهای هوش مصنوعی را پشت سر بگذارند. آلتمن نیز تلویحاً از برنامههای OpenAI برای توسعه تراشه اختصاصی سخن گفته است؛ اقدامی منطقی در مقیاس آیندهنگرانه این شرکت.
در عصری که ظرفیت پردازشی گلوگاه اصلی پیشرفت هوش مصنوعی است، OpenAI در حال تثبیت موقعیت خود بهعنوان رهبر جهانی در زیرساخت AGI است. یک سال پیش، شرکتی با ۱۰ هزار GPU یک بازیگر بزرگ محسوب میشد. امروز، عدد یک میلیون دیگر آنچنان چشمگیر نیست و تنها بهعنوان پلهای برای جهشهای بعدی در نظر گرفته میشود.
OpenAI با تبدیل زیرساخت به ابزار اصلی رقابت، نهتنها آینده مدلهای زبانی را متحول میکند، بلکه احتمالاً قواعد بازی را برای تمام بازیگران هوش مصنوعی جهان بازنویسی خواهد کرد.
پاسخ صادقانه این است که در شرایط فعلی، رسیدن به ۱۰۰ میلیون GPU واقعگرایانه نیست. اما هدف آلتمن محدود به امروز نیست. او در حال مهندسی آیندهای است که در آن مرزهای فنی امروز، تبدیل به موانع ابتدایی خواهند شد.
وقتی OpenAI تا پایان امسال به رکورد ۱ میلیون GPU دست یابد، نهتنها توان پردازشی خود را گسترش داده، بلکه معیار جدیدی برای زیرساخت جهانی هوش مصنوعی تعریف خواهد کرد. همه آنچه بعد از آن میآید، بلندپروازی است – اما اگر سابقه آلتمن را ملاک قرار دهیم، نادیدهگرفتن این رؤیاها ممکن است بزرگترین اشتباه رقبا باشد.