
लेखक: बॉक्सु ली
NVIDIA का नवीनतम ब्लैकवेल अल्ट्रा GPU प्लेटफॉर्म AI की दुनिया में हलचल मचा रहा है - इतना कि यह गंभीर आपूर्ति संकट पैदा कर रहा है। वॉल स्ट्रीट विश्लेषक और सोशल मीडिया पर AI शोधकर्ता इन चिप्स की रिकॉर्ड-ब्रेकिंग परफॉर्मेंस, ऊँचे दाम और अभूतपूर्व मांग के बारे में चर्चा कर रहे हैं। इस गहन विश्लेषण में, हम ब्लैकवेल अल्ट्रा के वायरल समाचार होने के कारणों का अन्वेषण करेंगे, इसके प्रदर्शन-प्रति-वाट और मेमोरी बैंडविड्थ की प्रगति की जांच करेंगे, इन GPUs को बड़े पैमाने पर तैनात करने की क्लस्टर अर्थशास्त्र पर चर्चा करेंगे, और यह विचार करेंगे कि यह उत्साह हल्के AI फ्रेमवर्क्स के पुनर्विचार को क्यों प्रेरित कर रहा है। पूरे विश्लेषण में, हम तथ्यों को विश्वसनीय स्रोतों से समर्थन देंगे और तकनीकी विवरणों पर ध्यान केंद्रित करेंगे ताकि एक समझदार दर्शक को संतुष्ट किया जा सके।
अतुलनीय प्रदर्शन: NVIDIA के Blackwell Ultra GPUs AI अनुमान क्षमता में एक बड़ा उछाल लाते हैं। शुरुआती बेंचमार्क दिखाते हैं कि यह पिछले जनरेशन के Hopper H100 GPUs की तुलना में 7.5 गुना अधिक लो-प्रिसीजन थ्रूपुट प्रदान करते हैं[1]। वास्तव में, Blackwell Ultra (NVFP4 फॉर्मेट) में 15 PFLOPS पर 4-बिट प्रिसीजन गणित कर सकता है, जबकि H100 (FP8) पर यह लगभग 2 PFLOPS है – यह कच्चे थ्रूपुट में 7.5 गुना वृद्धि है[1]। यह उछाल AI मॉडल अनुमान को नाटकीय रूप से तेज कर देता है। उदाहरण के लिए, NVIDIA रिपोर्ट करता है कि Blackwell Ultra आधारित सिस्टम एक Hopper आधारित प्लेटफ़ॉर्म की तुलना में AI “फैक्ट्री” आउटपुट (प्रतिक्रियाओं का थ्रूपुट) में 50 गुना कुल वृद्धि प्राप्त करता है, लगभग 10 गुना अधिक प्रति-उपयोगकर्ता प्रतिक्रियाशीलता और 5 गुना अधिक प्रति मेगावाट थ्रूपुट की बदौलत[2]। दूसरे शब्दों में, Blackwell Ultra सिर्फ़ क्रूर बल नहीं जोड़ता – यह इसे बहुत अधिक कुशलता से करता है, बड़े पैमाने पर तैनाती में 5 गुना अधिक प्रदर्शन प्रति वॉट प्रदान करता है[2]।
नई अनुमान क्षमताएं: Blackwell Ultra एक नया 4-बिट प्रिसिजन फॉर्मेट पेश करता है जिसे NVFP4 कहा जाता है, जो अत्यधिक अनुमान गति को बिना अधिक सटीकता खोए सक्षम करता है। इस फॉर्मेट में दो-स्तरीय स्केलिंग का उपयोग किया जाता है ताकि सटीकता को बनाए रखा जा सके, जो लगभग FP8 स्तर की गुणवत्ता को बहुत कम मेमोरी और कंप्यूट लागत के साथ प्राप्त करता है[3]। परिणामस्वरूप, Blackwell Ultra के टेंसर कोर निम्न-प्रिसिजन गणनाओं को पहले से असंभव स्तर पर संसाधित कर सकते हैं - स्टैंडर्ड Blackwell GPUs की तुलना में 1.5× FP4 थ्रूपुट, और पहले की आर्किटेक्चर की तुलना में कई गुना तेजी से[1]। NVIDIA ने प्रमुख ट्रांसफार्मर अटेंशन ऑपरेशनों के लिए विशेष फंक्शन यूनिट थ्रूपुट को भी दोगुना कर दिया है, ताकि अटेंशन लेयर्स बेस Blackwell चिप्स की तुलना में 2× तेजी से चल सकें[4]। ये प्रगति बड़े भाषा मॉडल और जनरेटिव AI अनुमान के मुख्य बाधाओं को लक्षित करती हैं, जैसे रियल-टाइम जनरेटिव वीडियो को सक्षम करना। वास्तव में, एक डेमो ने दिखाया कि Blackwell Ultra 5 सेकंड का AI वीडियो 30× तेजी से जनरेट कर सकता है जितना Hopper GPUs कर सकते थे, एक 90 सेकंड का कार्य को रियल-टाइम आउटपुट में बदलते हुए[5]।
वॉल स्ट्रीट और ट्विटर का प्रचार: इस प्रदर्शन लाभ को नजरअंदाज नहीं किया गया है। एनवीडिया के शेयरों में ब्लैकवेल से प्रेरित रिकॉर्ड राजस्व की उम्मीदों पर तेजी आई है। Q3 2025 में, डेटा-सेंटर राजस्व $51.2 बिलियन (एनवीडिया की 90% बिक्री) तक पहुंच गया, मुख्यतः ब्लैकवेल अल्ट्रा के तेजी से बढ़ने के कारण - जिसे कंपनी अब सभी ग्राहक श्रेणियों में अपनी “प्रमुख आर्किटेक्चर” कहती है[6][7]। सीईओ जेनसन हुआंग ने कहा कि “ब्लैकवेल बिक्री रिकॉर्ड पर है, और क्लाउड जीपीयू बिक चुके हैं”, मांग आपूर्ति से कहीं अधिक है[8]। एआई लैब्स और क्लाउड प्रदाता इन चिप्स को प्राप्त करने के लिए दौड़ रहे हैं, और सोशल मीडिया पर अत्यधिक बैकऑर्डर और द्वितीयक बाजार के मार्कअप्स की कहानियाँ भरी हुई हैं। यह अल्पता-प्रेरित उन्माद कीमतों को बढ़ा रहा है और तकनीकी और वित्तीय क्षेत्रों में ब्लैकवेल अल्ट्रा को एक ट्रेंडिंग विषय बना रहा है।
चित्र: लो-प्रिसिजन AI थ्रूपुट ब्लैकवेल अल्ट्रा के साथ आसमान छू रहा है। प्रत्येक ब्लैकवेल अल्ट्रा GPU 15 PFLOPS घन 4-बिट AI कंप्यूट प्रदान करता है, जो पहले से ही शक्तिशाली ब्लैकवेल चिप से 1.5× बढ़त है, और NVIDIA की पूर्ववर्ती हॉपर पीढ़ी (H100/H200) के FP8 थ्रूपुट से लगभग 7.5× ज्यादा है[1]। कंप्यूट पावर में यह विशाल पीढ़ीगत उछाल वर्तमान AI इंफ्रास्ट्रक्चर बूम का एक प्रमुख चालक है।
ब्लैकवेल अल्ट्रा के केंद्र में एक अत्याधुनिक डिज़ाइन है, जो विशेष रूप से AI इन्फरेंस को बड़े पैमाने पर करने के लिए बनाया गया है। हर GPU वास्तव में एक पैकेज में डुअल GPU डाइज़ के साथ होता है, जो 10 TB/s उच्च-बैंडविड्थ इंटरकनेक्ट द्वारा जुड़े होते हैं[9]। ये मल्टी-डाई दृष्टिकोण (चिपलेट आर्किटेक्चर के समान) NVIDIA को एक "GPU" में विशाल मात्रा में प्रोसेसिंग क्षमता पैक करने की अनुमति देता है। पूरा ब्लैकवेल अल्ट्रा चिप 160 स्ट्रीमिंग मल्टीप्रोसेसर्स (SMs) को 8 GPC क्लस्टर्स में विभाजित करता है, जिससे प्रत्येक GPU में कुल 640 पाँचवीं पीढ़ी के टेन्सर कोर होते हैं[10][11]। ये टेन्सर कोर AI के कार्यकर्ता हैं, और ब्लैकवेल अल्ट्रा में इन्हें FP8, FP6, और नए NVFP4 प्रिसीज़न के लिए अनुकूलित किया गया है। प्रत्येक SM में 256 KB का "टेन्सर मेमोरी" (TMEM) ऑन-चिप शामिल है, एक छोटा उच्च गति वाला स्क्रैचपैड जो GPU को मैट्रिक्स गणनाओं के लिए डेटा को अधिक कुशलता से पुनः उपयोग करने देता है[12][13]। यह SM-स्तरीय मेमोरी, नए डुअल-ब्लॉक प्रोसेसिंग मोड्स के साथ, ऑफ-चिप मेमोरी ट्रैफिक को कम करने और टेन्सर कोर को डेटा प्रदान करने में मदद करता है, जिससे प्रभावी थ्रूपुट और पावर दक्षता में सुधार होता है[13]।
HBM3e मेमोरी – विशाल और तेज़: इन कम्प्यूट यूनिट्स को डेटा देने के लिए एक विशाल मेमोरी पूल है। ब्लैकवेल अल्ट्रा GPUs प्रत्येक में 288 GB HBM3e उच्च-बैंडविथ मेमोरी के साथ आते हैं[14]। यह मानक ब्लैकवेल डेटा सेंटर GPU (जिसमें ~192 GB है)[15] की तुलना में 1.5× अधिक मेमोरी है, और हॉपर H100 (80 GB) की तुलना में 3.5× से अधिक मेमोरी है। यह ज़रूरी है क्योंकि आज के बड़े भाषा मॉडल और अन्य AI कार्यभार अक्सर विशाल संदर्भ लंबाई और मॉडल आकार की मांग करते हैं। बड़ी मेमोरी बड़े बैच आकार और लंबी अनुक्रमों को एक बार में संसाधित करने की अनुमति देती है, जटिल मॉडलों के लिए थ्रूपुट में सुधार करती है[16]। मेमोरी बैंडविथ भी उतनी ही प्रभावशाली है – प्रति GPU 8 TB/s के क्रम में (12 स्टैक्स के HBM3e के कारण)[14]। तुलना के लिए, एक H100 SXM मॉड्यूल लगभग 3 TB/s प्रदान करता था[17], और यहां तक कि अंतरिम H200 अपग्रेड HBM3e के साथ ~4.8 TB/s पर सीमित था[18][19]। ब्लैकवेल अल्ट्रा के साथ, मेमोरी सबसिस्टम अब कई कार्यभारों के लिए बाधा नहीं है: मॉडल बड़े हो सकते हैं, या अधिक कुशलता से एक्सेस किए जा सकते हैं, बिना बाहरी मेमोरी को बार-बार परेशान किए।
ग्रेस हॉपर से ग्रेस ब्लैकवेल: NVIDIA का डिज़ाइन GPU के साथ CPU और नेटवर्किंग को बेहतर क्लस्टर-स्केल प्रदर्शन के लिए कड़ाई से एकीकृत करता है। प्रत्येक ब्लैकवेल अल्ट्रा “नोड” GPU को NVIDIA के ग्रेस CPU के साथ अल्ट्रा-फास्ट NVLink-C2C लिंक (900 जीबी/सेकंड CPU–GPU बैंडविड्थ) पर जोड़ता है[14]। ग्रेस CPU अपने 2,592 आर्म कोर और उच्च मेमोरी बैंडविड्थ (LPDDR5X) के साथ GPU को डेटा प्रदान करता है[20][21]। इस संयोजन को कभी-कभी ग्रेस ब्लैकवेल कहा जाता है, यह सुनिश्चित करता है कि GPU कंप्यूट CPU या I/O सीमाओं से प्रभावित न हो। वास्तव में, एक NVIDIA GB300 सिस्टम (नीचे विस्तार से) प्रत्येक रैक में 72 GPU के साथ 36 ग्रेस CPU काम करता है, और यह सब 5वीं पीढ़ी के NVLink के माध्यम से 130 टीबी/सेकंड के सभी-से-सभी बैंडविड्थ के साथ जुड़ा हुआ है[22][20]। यह फैब्रिक, साथ ही NVIDIA का क्वांटम X इंफिनीबैंड या स्पेक्ट्रम-X ईथरनेट नोड्स के बीच, यह सुनिश्चित करता है कि यहां तक कि मल्टी-रैक “AI फैक्ट्रियां” भी तेजी से इंटर-GPU संचार के साथ संचालित हो सकें। अंतिम लक्ष्य AI इनफ्रेंस को क्लाउड सेवा की तरह स्केल करना है – जिसे NVIDIA AI फैक्टरी अवधारणा का नाम देता है – जहां कई मॉडल और अनुरोध समानांतर में एक जाल वाले एक्सेलेरेटर क्लस्टर में चलते हैं।
ब्लैकवेल अल्ट्रा के सबसे उल्लेखनीय पहलुओं में से एक यह है कि यह एआई कार्यभारों के लिए ऊर्जा दक्षता को कितना सुधारता है। हां, प्रत्येक GPU बहुत अधिक बिजली खींचता है (हम उच्च टीडीपी पर एक क्षण में चर्चा करेंगे), लेकिन प्रति-वाट प्रदर्शन पिछले पीढ़ियों की तुलना में काफी बढ़ गया है। NVIDIA के अपने मेट्रिक्स बताते हैं कि बड़े पैमाने पर, ब्लैकवेल अल्ट्रा सिस्टम्स हॉपर-आधारित सिस्टम्स की तुलना में प्रति मेगावाट 5× अधिक थ्रूपुट प्रदान करते हैं[2]। यह कई कारकों के समांतर काम करने के कारण है:
यह ध्यान देने योग्य है कि प्रदर्शन-प्रति-वॉट सुधार केवल शैक्षणिक नहीं हैं; वे डेटा केंद्रों के लिए संचालन लागत पर सीधे प्रभाव डालते हैं। यदि आप समान ऊर्जा इनपुट के लिए 5× अधिक थ्रूपुट प्राप्त कर सकते हैं, तो यह प्रति क्वेरी या प्रति अनुमान की लागत में बहुत बड़ी कमी है। यह देखते हुए कि कई एआई मॉडल वेब स्केल पर तैनात होते हैं (सोचिए हर दिन लाखों क्वेरीज़), ये दक्षता लाभ बिजली और शीतलन लागत को नियंत्रित करने के लिए आवश्यक हैं। NVIDIA यहां तक कि अपने GPUs के लिए एक ऊर्जा दक्षता कैलकुलेटर भी प्रदान करता है[25], यह दिखाता है कि यह मीट्रिक ग्राहकों के लिए कितना महत्वपूर्ण हो गया है।
दूसरे दृष्टिकोण से, एएमडी और अन्य प्रतिस्पर्धी भी एआई के लिए परफ-पर-वॉट का प्रचार कर रहे हैं, लेकिन 2025 के अंत तक NVIDIA ने ब्लैकवेल अल्ट्रा के साथ एक कदम आगे बढ़ा दिया है। उदाहरण के लिए, प्रमुख एएमडी MI300X (एआई इनफेरेंस के लिए एक प्रतिस्पर्धी GPU) अभी भी 5nm-क्लास तकनीक पर है और 8-बिट और 16-बिट ऑपरेशनों पर ध्यान केंद्रित करता है; NVIDIA का 4-बिट इनफेरेंस की ओर आक्रामक कदम और विशेष हार्डवेयर के साथ इसे दक्षता में नई धार देता है। यही कारण है कि क्लाउड प्रदाता ब्लैकवेल अल्ट्रा में निवेश करने के लिए उत्सुक हैं, भले ही प्रारंभिक लागत अधिक हो - जब आप समय के साथ कम पावर में अधिक कर सकते हैं तो कुल स्वामित्व लागत में सुधार होता है।
बड़े एआई मॉडल कुख्यात रूप से मेमोरी और बैंडविड्थ के लिए भूखे होते हैं, और ब्लैकवेल अल्ट्रा इसे अपनी HBM3e मेमोरी आर्किटेक्चर के साथ सीधे संबोधित करता है। जैसा कि उल्लेख किया गया है, प्रत्येक GPU में बोर्ड पर 288 GB HBM3e मेमोरी होती है[14]। यह एक बड़ी मात्रा में तेज मेमोरी है, यहां तक कि हाल के GPU जैसे H100 80GB या इंटरिम H200 141GB की तुलना में जिसने HBM3e पेश किया[18][19]।
प्रत्येक GPU पर 288 GB का तुरंत लाभ यह है कि बिना GPU में मॉडल को विभाजित किए बहुत बड़े मॉडलों को मेमोरी में सर्व या फाइन-ट्यून किया जा सकता है (जैसे कि कई सौ बिलियन पैरामीटर मॉडल या उच्च-संदर्भ LLMs)। बड़े बैच प्रोसेसिंग भी संभव है, जो उपयोगिता को बढ़ाता है। NVIDIA विशेष रूप से यह नोट करता है कि Blackwell Ultra पर 1.5× बड़ी मेमोरी (इसके पूर्ववर्ती की तुलना में) "सबसे बड़े संदर्भ लंबाई के लिए AI रीजनिंग थ्रूपुट को बढ़ावा देती है।"[16] AI अनुप्रयोगों के लिए, जैसे लंबे दस्तावेज़ प्रश्न-उत्तर या AI सहायक के साथ लंबी बातचीत, GPU एक बार में अधिक टोकन को संभाल सकता है, जिससे गति और परिणामों की गुणवत्ता दोनों में सुधार होता है।
बैंडविड्थ सिक्के का दूसरा पहलू है। 12 HBM स्टैक्स के समानांतर चलने से, Blackwell Ultra की मेमोरी सबसिस्टम अत्यधिक चौड़ी है। चरम पर, यह लगभग ~8 TB/s डेटा को धक्का दे सकता है[14]। यह एक खगोलीय आंकड़ा है – तुलना के लिए, एक उच्च-स्तरीय पीसी GPU जिसमें GDDR6 हो सकता है 0.5 TB/s हो, और यहां तक कि पिछले पीढ़ी के डेटा सेंटर GPUs 2–3 TB/s रेंज में थे[17]। व्यवहार में इसका क्या मतलब है? इसका मतलब है कि GPU कोर को मेमोरी-भारी कार्यभार में भी डेटा के साथ लगातार आपूर्ति की जा सकती है। न्यूरल नेटवर्क अक्सर बड़े मैट्रिक्स गुणा शामिल करते हैं (जिसे टेन्सर कोर संभालते हैं) जो मेमोरी-आधारित संचालन (जैसे कि ध्यान वेटिंग्स, एम्बेडिंग लुकअप, आदि) के साथ जुड़े होते हैं। अधिक बैंडविड्थ के साथ, वे मेमोरी-आधारित कदम तेज हो जाते हैं, ताकि कुल कार्यभार में कम स्थगन दिखे। Blackwell Ultra का डिज़ाइन मौलिक रूप से इसके जबरदस्त गणना को समान रूप से भयानक मेमोरी थ्रूपुट के साथ संतुलित करता है, उस स्थिति से बचता है जिसमें गणना इकाइयाँ डेटा के लिए प्रतीक्षा करते हुए निष्क्रिय होती हैं।
इसे ठोस रूप से समझें, मान लें कि एक ट्रांसफार्मर मॉडल एक लंबा अनुक्रम उत्पन्न कर रहा है: ध्यान तंत्र को स्मृति से बड़ी कुंजी/मान मैट्रिसेस पढ़ने की आवश्यकता होती है। हॉपपर H100 पर, यह बहुत लंबे अनुक्रमों के लिए एक सीमित कारक हो सकता था, लेकिन ब्लैकवेल अल्ट्रा के साथ HBM3e पर, GPU उन मैट्रिसेस को दोहरी या अधिक गति से डाल सकता है। 2× तेज ध्यान गणना इकाइयों के साथ मिलकर, यह लंबे संदर्भ के साथ GPT-शैली के पाठ उत्पादन जैसी कार्यों पर बहुत उच्च स्थायी प्रदर्शन प्राप्त करता है। NVIDIA की “AI फैक्टरी” अवधारणा का मतलब है कि मेमोरी क्लस्टर स्केल पर एकत्र की जाती है – 72-GPU रैक में, यह 20 टीबी से अधिक GPU मेमोरी पूल्ड होती है, जिसके साथ कुल मेमोरी बैंडविड्थ सैकड़ों टीबी/सेकंड रेंज में NVLink-कनेक्टेड डोमेन में उपलब्ध होती है[22][20]। यह मूल रूप से एक AI क्लस्टर को एकल विशाल GPU की तरह व्यवहार करने देता है जिसमें तेज मेमोरी के टेराबाइट्स होते हैं, जो बड़े मॉडलों के कई उदाहरणों को एक साथ सेवा देने के लिए एक आदर्श परिदृश्य है।
प्रदर्शन और दक्षता को ध्यान में रखते हुए, हमें ब्लैकवेल अल्ट्रा को तैनात करने के व्यावहारिक पक्ष को संबोधित करना होगा: आवश्यक लागत और बुनियादी ढांचा। ये GPU आमतौर पर बड़े सिस्टम जैसे NVIDIA के GB300 NVL72 रैक या HGX B300 सर्वर ब्लेड का हिस्सा होते हैं। एक GB300 NVL72 यूनिट में 72 ब्लैकवेल अल्ट्रा GPU और 36 ग्रेस CPU एक रैक में शामिल होते हैं, जो हाई-स्पीड स्विच और कूलिंग के साथ आता है[26][20]। यह वास्तव में एक बॉक्स में AI सुपरकंप्यूटर है, और यह सस्ता नहीं आता। उद्योग रिपोर्टों के अनुसार, NVIDIA एक पूर्ण GB300 NVL72 रैक की कीमत लगभग $3 मिलियन[27] रख रहा है। यह प्रति GPU औसतन $40,000 के बराबर है, जो NVIDIA द्वारा व्यक्तिगत ब्लैकवेल यूनिट्स के लिए संकेतित $30k–$40k की सूची मूल्य के अनुरूप है[28]। (ध्यान देने योग्य है कि जेनसन हुआंग ने सुझाव दिया है कि वे सिर्फ स्टैंडअलोन चिप्स या कार्ड्स को अंतिम ग्राहकों को नहीं बेचेंगे – वे पूरी तरह से एकीकृत सिस्टम बेचना पसंद करते हैं[28]। यह बंडलिंग रणनीति प्रारंभिक लागत को बढ़ाती है लेकिन सुनिश्चित करती है कि खरीदारों को एक पूर्ण, अनुकूलित समाधान मिलता है।)
जो कोई भी AI क्लस्टर की योजना बना रहा है, उसके लिए पूंजीगत व्यय (CapEx) बहुत बड़ा है। केवल एक रैक की लागत $3M है, और कई तैनाती में कई रैक शामिल होते हैं। CoreWeave, OpenAI, Meta, Microsoft - सभी बड़े खिलाड़ी - कथित तौर पर जितने हो सके उतने खरीद रहे हैं। जिनकी खरीद क्षमता कम है (स्टार्टअप्स, शैक्षणिक लैब्स) को माध्यमिक बाजार में बढ़े हुए दामों का सामना करना पड़ता है, जहां पहले H100s MSRP से हजारों अधिक में पुनर्विक्रय हो रहे थे, और हम Blackwell के साथ इसी तरह की प्रवृत्ति देख रहे हैं। 2024 के अंत में, कुछ मामलों में H100 80GB कार्ड्स की कीमत $30k–$40k प्रति कार्ड थी जब आपूर्ति मांग से पिछड़ गई थी[29]। Blackwell Ultra भी उसी राह पर चल रहा है, प्रभावी रूप से “AI सोने की दौड़” की कीमतों पर दोगुना दांव लगा रहा है। संक्षेप में, केवल गहरी जेब वाले संगठन या क्लाउड क्रेडिट्स वाले ही इस स्तर के हार्डवेयर पर खेल सकते हैं।
पावर और कूलिंग लागत: खरीद मूल्य के साथ-साथ, इन क्लस्टर्स को चलाने की परिचालन लागत (OpEx) महत्वपूर्ण है। प्रत्येक ब्लैकवेल अल्ट्रा GPU जब पूरी तरह से उपयोग में होता है, तो यह ~1400 W तक खींच सकता है[15] – जो कि एक सामान्य H100 SXM के 700W TDP का दोगुना या उससे अधिक है। एक 72-GPU रैक में, इसका मतलब है कि सिर्फ GPU लगभग 100 kW की शक्ति का उपभोग कर सकते हैं (CPU, नेटवर्किंग आदि के लिए ओवरहेड को छोड़कर)। वास्तव में, 18 GPU ट्रे के साथ पूरी तरह से लोडेड NVL72 कैबिनेट >100 kW के आदेश पर खींचता है और उन्नत कूलिंग की आवश्यकता होती है। इन सिस्टम्स में NVIDIA ने लिक्विड-कूलिंग का विकल्प चुना, लेकिन इसका भी एक मूल्य है: मॉर्गन स्टेनली के हाल के विश्लेषण ने लिक्विड कूलिंग सिस्टम के बिल ऑफ मटेरियल्स को प्रति रैक ~$50,000 आंका[30] – जिसमें कस्टम कोल्ड प्लेट्स, पंप्स, हीट एक्सचेंजर्स आदि शामिल हैं। और जैसे-जैसे अगली पीढ़ी की प्रणालियों की शक्ति बढ़ती है (अफवाह: फॉलो-ऑन “वेरा रूबिन” पीढ़ी प्रति GPU 1.8kW तक धकेल सकती है), प्रति रैक कूलिंग लागत के ~$56k तक बढ़ने की उम्मीद है[31][32]।
दूसरे शब्दों में, $3M के सिलिकॉन के अलावा, आप प्लंबिंग और हीट प्रबंधन पर हजारों खर्च कर सकते हैं। साथ ही बिजली का बिल: 100 kW का 24/7 चलना लगभग 2.4 MWh प्रति दिन होता है। वाणिज्यिक डेटा सेंटर की दरों पर, यह प्रति रैक प्रति दिन $200–$400 के क्रम में हो सकता है (प्रति वर्ष $100k से अधिक), जिसमें कूलिंग और इन्फ्रास्ट्रक्चर ओवरहेड शामिल नहीं है। स्पष्ट रूप से, एक AI सुपरक्लस्टर का संचालन न तो कमजोर दिल वालों के लिए है और न ही कम बजट वालों के लिए।
हालांकि, यहाँ वह जगह है जहाँ क्लस्टर अर्थशास्त्र खुद को सही ठहराते हैं: थ्रूपुट और TCO के माध्यम से। यदि एक ब्लैकवेल अल्ट्रा रैक, मान लीजिए, पिछले-जेन रैक की तुलना में 50× आउटपुट देता है (जैसा कि NVIDIA कुछ वर्कलोड्स के लिए सुझाव देता है)[2], तो एक डेटा सेंटर को लक्षित वर्कलोड प्राप्त करने के लिए कुल रैक्स की कम आवश्यकता हो सकती है (और इस प्रकार कुल बिजली/कूलिंग भी कम)। बढ़ी हुई दक्षता का मतलब है कि प्रति क्वेरी, ऊर्जा की लागत वास्तव में कम हो सकती है, भले ही कुल शक्ति खींचना अधिक हो, क्योंकि प्रत्येक GPU अधिक क्वेरीज को एक साथ सेवा दे रहा है। क्लाउड प्रदाताओं के लिए जो GPU समय किराए पर देते हैं, इसका मतलब हो सकता है कि वे उसी लागत पर ग्राहकों को अधिक प्रदर्शन की पेशकश कर सकें, या बेहतर मार्जिन प्राप्त कर सकें। एक मीडियम विश्लेषण ने प्रस्तावित किया कि यदि ब्लैकवेल GPUs लगभग उसी किराए की कीमत पर H100s की तुलना में अधिक प्रदर्शन प्रदान करते हैं, तो क्लाउड AI कंप्यूट की लागत (प्रति TFLOP-घंटा) कम हो जाएगी, कम से कम जब तक आपूर्ति मेल नहीं खाती[33]। यह बड़े मॉडल्स तक पहुँच को लोकतांत्रिक बना सकता है यदि कीमतें सामान्य हो जाती हैं। बेशक, अल्पकालिक में, आपूर्ति की बाधाओं का मतलब है कि किराए की कीमतें उच्च बनी हुई हैं – कई क्लाउड GPU इंस्टेंस महंगे हैं या वेटलिस्टेड हैं क्योंकि हर कोई इस नए हार्डवेयर को चाहता है।
सारांश में, क्लस्टर स्केल पर ब्लैकवेल अल्ट्रा की अर्थव्यवस्था में बड़े प्रारंभिक निवेश शामिल होते हैं, लेकिन ये दीर्घकालिक क्षमता और दक्षता लाभ का वादा करते हैं। कंपनियां जो इन सिस्टम्स को जल्दी हासिल कर सकती हैं, AI मॉडल विकास और तैनाती में एक प्रतिस्पर्धात्मक बढ़त प्राप्त करती हैं – और यही कारण है कि GPU खरीदने की होड़ को "हथियारों की दौड़" के रूप में वर्णित किया गया है। यह भी कारण है कि NVIDIA का डेटा सेंटर राजस्व उस तिमाही में 66% YoY बढ़ गया[34]: लगभग हर प्रमुख टेक कंपनी और AI स्टार्टअप GPU इंफ्रास्ट्रक्चर में पूंजी निवेश कर रही है, भले ही इसका मतलब उच्च कीमतों और विलंबित डिलीवरी का सामना करना पड़े।
यह सब आपूर्ति संकट की ओर ले जाता है जो वायरल चर्चा को बढ़ावा देता है। सरल शब्दों में, NVIDIA के AI एक्सेलेरेटर्स के लिए मांग आपूर्ति से बहुत अधिक है। NVIDIA की CFO कोलेट क्रेस ने हाल ही में एक आय कॉल पर कहा कि “क्लाउड्स बिक चुके हैं” - प्रमुख क्लाउड प्रदाता अपनी GPU क्षमता पूरी तरह से बुक कर चुके हैं - और यहां तक कि पिछले जनरेशन के GPU जैसे H100 और Ampere A100 भी इंस्टॉल बेस में “पूरी तरह से उपयोग किए जा रहे हैं”। NVIDIA ने स्वीकार किया कि उसकी आपूर्ति सीमित है और वह जितनी जल्दी हो सके उत्पादन बढ़ा रहा है (2H 2024 तक महत्वपूर्ण वृद्धि की उम्मीदों के साथ)। Jensen Huang ने ताइवान में TSMC की यात्रा के दौरान कहा कि उन्होंने अपनी फाउंड्री से ब्लैकवेल चिप्स के लिए “बहुत मजबूत मांग” को पूरा करने के लिए जितनी अधिक वेफर्स संभव हो उतनी मांगी। TSMC के CEO ने यहां तक Jensen को “पांच ट्रिलियन डॉलर का आदमी” का उपनाम दिया क्योंकि AI के प्रति उम्मीदों के चलते NVIDIA का बाजार मूल्य $5 ट्रिलियन तक पहुंच गया। संक्षेप में, NVIDIA जितने चिप्स बना सकती है उन्हें बेच रही है, और पार्टनर्स को उत्पादन तेज करने के लिए प्रेरित कर रही है - लेकिन निकट भविष्य में यह पर्याप्त नहीं है।
कई कारक बॉटलनेक में योगदान करते हैं:
चर्चा में "H300" का उल्लेख संभवतः क्षितिज पर अगले प्रमुख GPU अपग्रेड की ओर इशारा करता है। NVIDIA की ब्लैकवेल के बाद की रोडमैप को कोड-नाम वेरा रूबिन (खगोलशास्त्री के नाम पर) बताया जा रहा है – कुछ उत्साही लोगों ने इस काल्पनिक भविष्य की श्रृंखला को अनौपचारिक रूप से "H300" नाम दिया है, जो होपर नामकरण शैली के अनुरूप है। जबकि ब्लैकवेल अल्ट्रा अब यहाँ है, कंपनियाँ पहले से ही यह अटकलें लगा रही हैं कि आगे क्या आएगा। उदाहरण के लिए, कल्पना करें कि लगभग 2027 के आसपास, NVIDIA एक और छलांग लगाएगी, जैसे कि "H300" GPU जो 3nm या 2nm प्रोसेस पर बना होगा, शायद ब्लैकवेल अल्ट्रा से 10-15% अधिक कुशल होगा (जैसा कि एक Reddit टिप्पणीकार ने अनुमान लगाया)[49][50]। क्या यह तुरंत संकट को हल करेगा? संभावना नहीं है। तब तक अधिकांश बड़े खिलाड़ी अपने ब्लैकवेल तैनाती को पचा रहे होंगे; वे मामूली लाभ के लिए रातोंरात $ बिलियनों के हार्डवेयर को स्क्रैप नहीं करेंगे[49][50]। इसलिए, भले ही "H300" या रूबिन GPU दिखाई दे, मांग भविष्य के लिए आपूर्ति से आगे बढ़ती रहेगी क्योंकि विभिन्न उद्योगों में AI का अपनाना अभी भी तेजी से बढ़ रहा है। जैसा कि एक विश्लेषक ने कहा, NVIDIA ने "AI का शुभ चक्र" में प्रवेश किया है – अधिक उपयोग कंप्यूट के लिए अधिक मांग को बढ़ाता है, जो अधिक अनुप्रयोगों को सक्षम करता है, और इसी तरह[8]।
व्यवहारिक रूप से, जेन्सेन हुआंग का मार्गदर्शन यह है कि आपूर्ति अगले वर्ष तक तंग बनी रहेगी। मेमोरी निर्माता जैसे SK Hynix ने पहले ही अगले साल तक अपनी HBM उत्पादन बेची दी है, AI उछाल के कारण[51][52]। NVIDIA का Q4 के लिए अपना पूर्वानुमान $65 अरब राजस्व है – एक और छलांग – जो मानता है कि वे हर ब्लैकवेल को शिप कर सकते हैं जो वे बना सकते हैं[53]। इसलिए, "आपूर्ति संकट" तुरंत समाप्त नहीं हो रहा है; बल्कि, कीमतें ऊँची रहेंगी और GPU 2025 तक आवंटन-बद्ध रहेंगे। हमें संभवतः तब तक राहत नहीं मिलेगी जब तक द्वितीय श्रेणी के क्लाउड प्रदाता या छोटी कंपनियाँ यह निर्णय नहीं लेतीं कि लागत बहुत अधिक है और ऑर्डर को स्थगित कर देती हैं – लेकिन अभी, हर कोई AI कंप्यूट के लिए भूमि-हड़पने के मोड में है। NVIDIA की पूरी सिस्टम बेचने की रणनीति का मतलब भी है कि यदि आप इन GPUs को चाहते हैं, तो आपको अक्सर पूरे महंगे सर्वर या यहां तक कि पूरे पॉड्स खरीदने पड़ते हैं, जिससे यह और भी केंद्रित हो जाता है कि कौन उन्हें प्राप्त कर सकता है।
उन्नत AI हार्डवेयर के लिए अत्यधिक लागत और आपूर्ति सीमाओं को देखते हुए, यह विचार करना योग्य है कि सॉफ़्टवेयर और आर्किटेक्चर पक्ष कैसे अनुकूलित हो सकते हैं। एक दिलचस्प दृष्टिकोण है हल्के एजेंट फ्रेमवर्क का तर्क - मूल रूप से, एआई सिस्टम को इस तरह से डिज़ाइन करना कि वे कई विशेषीकृत, छोटे मॉडल या "एजेंट" पर निर्भर हों जो एक साथ काम करते हैं बजाय इसके कि एक विशाल एकल मॉडल पर जो सुपर-GPU की मांग करता है। यहीं पर Macaron जैसे दृष्टिकोण आते हैं, जो अधिक कुशल, स्मृति-सचेत एआई एजेंटों के लिए समर्थन करते हैं।
अभी यह एक अच्छा विकल्प क्यों हो सकता है? क्योंकि अगर कंप्यूट नई तेल है, तो दिए गए कंप्यूट की मात्रा का अधिकतम उपयोग करना सबसे महत्वपूर्ण है। ब्लैकवेल अल्ट्रा एक बड़ा बढ़ावा देता है, लेकिन हर कोई उन GPUs को प्राप्त नहीं कर सकता। जो लोग कर सकते हैं वे भी उन्हें यथासंभव कुशलता से उपयोग करना चाहेंगे। हल्के AI एजेंट कंप्यूट के साथ चालाकी से काम करने के बारे में हैं: - उन्हें इस तरह से डिजाइन किया जा सकता है कि वे कार्यों को मॉड्यूलर तरीके से संभाल सकें, केवल उप-कार्य के लिए आवश्यक मॉडल को सक्रिय कर सकते हैं, बजाय इसके कि हर क्वेरी के लिए एक विशाल मॉडल को अंत-टू-एंड चलाना पड़े। - वे अक्सर पुनः प्राप्ति जैसी तकनीकों का उपयोग करते हैं (केवल आवश्यक होने पर प्रासंगिक संदर्भ को खींचना) या परिणाम कैश करना, जो अनावश्यक गणना को कम करता है। - छोटे मॉडल अक्सर सस्ते या अधिक आसानी से उपलब्ध हार्डवेयर पर चलाए जा सकते हैं (यहां तक कि पुराने GPUs या CPUs पर भी), जो तब एक बड़ा लाभ होता है जब शीर्ष श्रेणी के GPUs की कमी हो या वे अत्यधिक महंगे हों।
उदाहरण के लिए, एक ही 175B पैरामीटर मॉडल के बजाय, जो सब कुछ करता है, आपके पास 10 छोटे मॉडल (जैसे प्रत्येक 5B से 20B) का एक संग्रह हो सकता है, जो विशेष डोमेन के लिए फाइन-ट्यून किए गए हैं (एक कोडिंग के लिए, एक गणित के लिए, एक संवाद के लिए, आदि), जो एक एजेंट फ्रेमवर्क द्वारा समन्वित होते हैं। ये किसी दिए गए प्रश्न के लिए समग्र रूप से कम मेमोरी और कंप्यूट का उपयोग कर सकते हैं, क्योंकि एजेंट बुद्धिमानी से प्रश्न को सही विशेषज्ञता तक पहुंचाता है। इस प्रकार का दृष्टिकोण चलाने के लिए अधिक लागत-प्रभावी हो सकता है - विशेष रूप से यदि आपके हार्डवेयर संसाधन सीमित हैं। यह क्लाउड कंप्यूटिंग में माइक्रोसर्विसेज के समान है: सभी कार्यों को अप्रभावी रूप से संभालने वाले एक विशाल एप्लिकेशन के बजाय काम के लिए सही छोटे सेवा का उपयोग करें।
प्रोजेक्ट्स जैसे Macaron AI गहरे मेमोरी और एजेंटिक आर्किटेक्चर की खोज कर रहे हैं, जहाँ एक AI सिस्टम विभिन्न कौशल या ज्ञान आधारों का उपयोग करके समाधान बनाता है (कुछ हद तक जैसे इंसान किसी विशेषज्ञ से किसी विशेष प्रश्न के लिए सलाह लेता है)। एक ऐसी दुनिया में जहां हर किसी के पास ब्लैकवेल अल्ट्रा क्लस्टर नहीं है, ऐसे डिज़ाइन अधिक लोगों को मध्यम हार्डवेयर पर उन्नत AI कार्य करने की अनुमति दे सकते हैं। यह वर्तमान हार्डवेयर बाधा का व्यावहारिक उत्तर है।
इसके अतिरिक्त, उच्च स्तर पर भी, प्रभावशीलता व्यवसाय के लिए अच्छी होती है। ब्लैकवेल अल्ट्रा को बड़े पैमाने पर खरीदने वाले हाइपरस्केलर्स भी सॉफ़्टवेयर ऑप्टिमाइजेशन में निवेश कर रहे हैं - बेहतर कंपाइलर्स से लेकर वितरित फ्रेमवर्क तक - प्रत्येक GPU घंटे से अधिकतम थ्रूपुट निकालने के लिए (क्योंकि $40k प्रति पीस पर, हर उपयोग का महत्व होता है)। एक हल्का एजेंट फ्रेमवर्क, जो उदाहरण के लिए, क्वेरियों को पूर्व-प्रक्रिया करके बड़े मॉडल को प्रदान किए जाने वाले संदर्भ की लंबाई को कम कर सकता है (इस प्रकार कंप्यूटिंग बचा सकता है), या कुछ लॉजिक को सस्ते मशीनों पर ऑफलोड कर सकता है, सीधे पैसे बचाएगा। हम इसे उभरती प्रणालियों में देखते हैं जहां एक बड़े मॉडल को छोटे उपकरणों या डेटाबेस द्वारा पूरक किया जाता है; बड़े मॉडल को केवल तभी लागू किया जाता है जब यह बिल्कुल आवश्यक हो। यह दर्शन मैकरॉन की उस दलील के साथ अच्छी तरह मेल खाता है कि हर कील के लिए AI हथौड़ा का उपयोग नहीं करना चाहिए, बल्कि हथौड़ों और स्कैलपेल्स का एक टूलकिट होना चाहिए।
सारांश में, यहाँ Macaron फिट का मतलब यह है कि जबकि NVIDIA की नवीनतम और महानतम तकनीकें अद्भुत कार्य करने में सक्षम हैं, उद्योग को AI को सुलभ और स्थायी बनाने की भी आवश्यकता है। केवल बड़े और महंगे हार्डवेयर पर जोर देने से कई अनुप्रयोगों के लिए सीमित लाभ होता है। AI समाधानों को हल्का, अधिक मॉड्यूलर और कम संसाधन-गहन बनाने के तरीके में नवाचार के लिए एक अवसर (और शायद आवश्यकता) है। इसका मतलब यह नहीं है कि हम शक्तिशाली GPUs या बड़े मॉडलों का पीछा करना बंद कर दें; बल्कि, हमें उनका उपयोग अधिक सावधानी से करना चाहिए। वर्तमान आपूर्ति संकट और लागत विस्फोट इस चर्चा को मजबूर कर रहे हैं। संभवतः हम अधिक हाइब्रिड दृष्टिकोण देखेंगे: उदाहरण के लिए, एक AI सेवा Blackwell Ultra GPUs का उपयोग मॉडल इनफेरेंस के भारी काम के लिए कर सकती है, लेकिन केवल तब जब एक हल्का फ्रंट-एंड सिस्टम ने अनुरोध को डिस्टिल किया हो, संबंधित डेटा को पुनः प्राप्त किया हो, और यह निर्धारित किया हो कि बड़े मॉडल को वास्तव में चलाने की आवश्यकता है। इस तरह, महंगे GPU चक्र केवल तब खर्च होते हैं जब आवश्यक हो, प्रति डॉलर समग्र थ्रूपुट में सुधार करते हुए।
NVIDIA के Blackwell Ultra GPUs का आगमन AI इंफ्रास्ट्रक्चर में एक महत्वपूर्ण क्षण का प्रतीक है - AI रीजनिंग और इन्फेरेंस में अद्भुत प्रदर्शन सुधार प्रदान करते हुए, सफलता की नई चुनौतियाँ भी उजागर करता है: आपूर्ति की कमी, बढ़ती लागत, और कंप्यूटेशनल शक्ति की बढ़ती भूख। हमने देखा है कि कैसे Blackwell Ultra प्रदर्शन (विशेष रूप से कम प्रिसिजन पर) और दक्षता (प्रदर्शन प्रति वाट) को उल्लेखनीय रूप से बढ़ाता है, जिससे 50× अधिक AI आउटपुट और वास्तविक समय जनरेटिव मीडिया जैसे छलांग संभव हो जाते हैं, जो एक साल पहले तक पहुँच से बाहर थे। इसकी शक्तिशाली HBM3e मेमोरी और उन्नत आर्किटेक्चर बाधाओं को हटाते हैं, लेकिन साथ ही, इन प्रणालियों का विशाल पैमाना और शक्ति खपत लॉजिस्टिक और आर्थिक चुनौतियाँ प्रस्तुत करते हैं - $3M मूल्य टैग से लेकर 100kW रैक तक जिन्हें विशेष कूलिंग की आवश्यकता होती है।
AI GPU की आपूर्ति की कमी एक वास्तविक और वर्तमान मुद्दा है: NVIDIA के उत्पादन का लगभग सभी हिस्सा पहले से ही बुक किया जा चुका है, और "बिक चुका" होना अब सामान्य बन गया है। इस कमी के कारण, GPUs की कीमतें $30k+ हैं, जिससे निवेशक और प्रैक्टिशनर्स इस बात पर विशेष ध्यान दे रहे हैं कि हमारे पास जो हार्डवेयर है, उसका सबसे अच्छा उपयोग कैसे किया जाए। यह एक महत्वपूर्ण बिंदु को रेखांकित करता है: व्यापक उद्योग के लिए, केवल बल के पैमाने पर निर्भर रहना टिकाऊ नहीं है। यही कारण है कि दक्षता – चाहे वह बेहतर हार्डवेयर के माध्यम से हो जैसे Blackwell Ultra या स्मार्ट सॉफ़्टवेयर जैसे हल्के एजेंट फ्रेमवर्क – आगे बढ़ने का खेल है।
निकट भविष्य में, NVIDIA का ब्लैकवेल अल्ट्रा सुर्खियों और परिनियोजन योजनाओं में छाया रहेगा, और जब तक आपूर्ति पूरी नहीं होती है (जो अगली आर्किटेक्चर के आने और फैब्स के विस्तार तक नहीं हो सकती), तब तक इन GPU के लिए खरीदारी की होड़ जारी रहेगी। AI क्षमता का निर्माण करने वाले संगठनों के लिए दो बातें महत्वपूर्ण हैं: यदि आप अत्याधुनिक हार्डवेयर प्राप्त कर सकते हैं, तो यह आपको बढ़त देगा, लेकिन आपको अपने AI स्टैक को बुद्धिमानी से डिज़ाइन करना भी आवश्यक है ताकि प्रत्येक FLOP का अधिकतम लाभ उठाया जा सके। इसका मतलब हो सकता है छोटे मॉडल्स का सम्मिश्रण, नई प्रीसिज़न के लिए कोड का अनुकूलन, या डेटा प्रबंधन में निवेश करना - किसी भी तरह से बेकार की गणना से बचना, जो इस संदर्भ में बेकार की धनराशि है।
जैसे-जैसे हम आगे की ओर देखते हैं, एआई हार्डवेयर की दिशा और भी बेहतर प्रदर्शन की ओर इशारा करती है (काल्पनिक "H300" और आने वाली रुबिन पीढ़ी) और संभवतः उच्च मांग जारी रहेगी। तो, उद्योग की चुनौती इस अद्भुत क्षमता को पहुंचनीयता के साथ संतुलित करना होगी। सॉफ्टवेयर स्तर पर दक्षता, स्केलेबिलिटी, और नवाचार यह सुनिश्चित करने की कुंजी होगी कि GPU जैसे ब्लैकवेल अल्ट्रा द्वारा संचालित एआई क्रांति में व्यापक प्रकार के खिलाड़ी भाग ले सकें – न कि केवल वे जिनकी जेबें सबसे गहरी हैं या जिनके डेटा सेंटर सबसे बड़े हैं। संक्षेप में, एनवीडिया का नवीनतम आश्चर्य नए सीमाओं को खोल चुका है, लेकिन यह भी हमें याद दिलाता है कि एआई में (जैसे कंप्यूटिंग में बड़े पैमाने पर), स्मार्ट संसाधन उपयोग कच्ची शक्ति जितना ही महत्वपूर्ण है।
स्रोत: NVIDIA उत्पाद और तकनीकी दस्तावेज[54][1][16], उद्योग समाचार रिपोर्ट[8][43], और विशेषज्ञ विश्लेषण[28][27] जिसमें Blackwell Ultra के प्रदर्शन, आपूर्ति श्रृंखला, और एआई अर्थशास्त्र पर प्रभाव का विवरण दिया गया है।
[1] [3] [4] [9] [10] [11] [12] [13] [14] NVIDIA Blackwell Ultra के अंदर: एआई फैक्ट्री युग को शक्ति देने वाली चिप | एनवीआईडीआईए टेक्निकल ब्लॉग
[2] [5] [16] [20] [21] [22] [25] [26] [54] AI तर्क प्रदर्शन और दक्षता के लिए डिज़ाइन किया गया | NVIDIA GB300 NVL72
https://www.nvidia.com/en-us/data-center/gb300-nvl72/
[6] [7] [34] [35] एनविडिया: ब्लैकवेल अल्ट्रा ने 62 प्रतिशत वृद्धि को रिकॉर्ड राजस्व तक पहुंचाने में बढ़त बनाई
[8] [53] एनविडिया की राजस्व प्रति तिमाही $57 बिलियन के रिकॉर्ड पर पहुँच गई है — सभी GPU बिक चुके हैं | टॉम का हार्डवेयर
[15] सुपर माइक्रो कंप्यूटर, इंक. - सुपरमाइक्रो NVIDIA ब्लैकवेल अल्ट्रा सिस्टम्स और रैक प्लग-एंड-प्ले डेटा सेंटर-स्केल सॉल्यूशंस की मात्रा में शिपमेंट शुरू करता है
[17] NVIDIA Hopper आर्किटेक्चर इन-डेप्थ | NVIDIA टेक्निकल ब्लॉग
https://developer.nvidia.com/blog/nvidia-hopper-architecture-in-depth/
http://www.hyperscalers.com/NVIDIA-H200-DGX-HGX-141GB
[23] कुशल और सटीक निम्न-परिशुद्धता अनुमान के लिए NVFP4 परिचय
[24] NVIDIA ब्लैकवेल बनाम ब्लैकवेल अल्ट्रा B300: क्या आपको खरीदना चाहिए या इंतजार करना चाहिए?
https://www.trgdatacenters.com/resource/nvidia-blackwell-vs-blackwell-ultra-b300-comparison/
[27] [46] [47] NVIDIA को 2025 में 5.2M Blackwell GPU, 2026 में 1.8M, और 2026 में 5.7M Rubin GPU भेजने की उम्मीद है : r/AMD_Stock
https://www.reddit.com/r/AMD_Stock/comments/1lovdwf/nvidia_expected_to_ship_52m_blackwell_gpus_in/
[28] [29] [33] ब्लैकवेल GPU और क्लाउड AI मूल्य निर्धारण की नई अर्थव्यवस्था | द्वारा elongated_musk | मीडियम
[30] [31] [32] एकल Nvidia Blackwell Ultra NVL72 रैक के लिए कूलिंग सिस्टम की कीमत $50,000 है — अगली पीढ़ी के NVL144 रैक्स के साथ यह बढ़कर $56,000 हो जाएगी | Tom's Hardware
[36] [40] [41] [42] [43] [44] NVIDIA ब्लैकवेल एआई सर्वर "घटक की कमी" के कारण प्रभावित, Q4 2024 में सीमित आपूर्ति की उम्मीद है
https://wccftech.com/nvidia-blackwell-ai-servers-component-shortage-limited-supply-expected-q4-2024/
[37] [38] [39] [48] [51] [52] एनवीडिया के सीईओ हुआंग ने ब्लैकवेल चिप्स की मजबूत मांग देखी | रॉयटर्स
https://www.reuters.com/world/china/nvidia-ceo-huang-sees-strong-demand-blackwell-chips-2025-11-08/
[45] Nvidia ने TSMC वेफर ऑर्डर को 50% बढ़ाया ब्लैकवेल चिप्स के लिए - LinkedIn
[49] [50] सैम ऑल्टमैन: "हमारे पास GPUs खत्म हो गए हैं। ChatGPT हर दिन नए यूजर्स की ऊंचाई तक पहुंच रहा है। हमें अभी इन भयानक समझौतों को करना पड़ रहा है। हमारे पास बेहतर मॉडल हैं, और हम उन्हें पेश नहीं कर सकते क्योंकि हमारे पास क्षमता नहीं है। हमारे पास अन्य प्रकार के नए उत्पाद और सेवाएं हैं जिन्हें हम पेश करना पसंद करेंगे।" : r/accelerate
https://www.reddit.com/r/accelerate/comments/1ms9rrl/sam_altman_were_out_of_gpus_chatgpt_has_been/