Nvidia AI चिप रेस में तेजी ला रहा है, नए वेरा रुबिन सर्वर इस साल लॉन्च होंगे

TECH
Whalesbook Logo
AuthorKaran Malhotra|Published at:
Nvidia AI चिप रेस में तेजी ला रहा है, नए वेरा रुबिन सर्वर इस साल लॉन्च होंगे
Overview

Nvidia ने CES में उम्मीद से पहले अपने अगली पीढ़ी के वेरा रुबिन AI सर्वर सिस्टम का अनावरण किया। ये नए सिस्टम, जो साल के दूसरे हिस्से में जारी होने वाले हैं, पिछली पीढ़ियों की तुलना में AI मॉडल ट्रेनिंग को काफी तेज करने और अनुमान (inference) की लागत को दस गुना कम करने का वादा करते हैं। तेजी से रोलआउट कृत्रिम बुद्धिमत्ता (artificial intelligence) क्षेत्र में तीव्र मांग और तीव्र नवाचार का संकेत देता है।

Nvidia Corp. अपने उत्पाद चक्र को तेज कर रहा है, अपने नवीनतम AI सर्वर सिस्टम, वेरा रुबिन, को सोमवार को कंज्यूमर इलेक्ट्रॉनिक्स शो (CES) में पेश किया। नए सिस्टम इस साल की दूसरी छमाही में बाजार में प्रवेश करने वाले हैं, जो कंपनी के सामान्य वसंत डेवलपर सम्मेलन के अनावरण कार्यक्रम से एक प्रस्थान है।

मुख्य कार्यकारी अधिकारी जेन्सेन हुआंग ने कृत्रिम बुद्धिमत्ता (AI) की बढ़ती कम्प्यूटेशनल मांगों और उन्नत प्रोसेसर की भारी आवश्यकता को त्वरित समय-सीमा का श्रेय दिया। हुआंग ने कहा, "AI के लिए आवश्यक कंप्यूटिंग की मात्रा आसमान छू रही है," AI दौड़ की प्रतिस्पर्धी प्रकृति पर जोर देते हुए। यह वृद्धि कई कंप्यूटिंग प्रतिमान बदलावों (computing paradigm shifts) से प्रेरित है, जिसमें अनुमान (inference) भी शामिल है - वह प्रक्रिया जिसके द्वारा AI मॉडल संकेतों का जवाब देते हैं - जिसे हुआंग ने "सोचने की प्रक्रिया" (thinking process) बताया।

वेरा रुबिन सर्वर को परिष्कृत AI मॉडल को प्रशिक्षित करने के लिए आवश्यक विशाल डेटासेट (massive datasets) और जटिल सिमुलेशन (complex simulations) को संभालने के लिए इंजीनियर किया गया है, जिसे Nvidia "ओमनिवर्स" (omniverse) कहता है। ये सिमुलेशन AI, जैसे स्वायत्त वाहनों (autonomous vehicles) को, वास्तविक दुनिया में तैनाती से पहले आभासी वातावरण (virtual environments) में सीखने की अनुमति देते हैं। Nvidia ने इस धारणा के तहत सिस्टम का परीक्षण किया है कि डेवलपर्स जल्द ही 10 ट्रिलियन डेटा पैरामीटर (data parameters) तक के मॉडल को प्रशिक्षित करेंगे।

रुबिन ग्राफिक्स प्रोसेसिंग यूनिट (GPUs) का उपयोग करके, डेवलपर्स इस पैमाने के मॉडल को एक महीने में प्रशिक्षित कर सकते हैं, जिसके लिए Nvidia के पिछले ब्लैकवेल (Blackwell) पीढ़ी के GPUs की तुलना में एक चौथाई चिप्स की आवश्यकता होती है। अनुमान (inference) कार्यों के लिए, रुबिन ब्लैकवेल की तुलना में दस गुना लागत में कमी प्रदान करता है। Nvidia ने व्यापक कनेक्टिविटी (connectivity) और मेमोरी-स्टोरेज (memory-storage) समाधान भी एकीकृत किए हैं, जो इसे अपने अर्धचालक (semiconductor) नेतृत्व के साथ-साथ एक प्रमुख नेटवर्किंग हार्डवेयर (networking hardware) प्रदाता के रूप में स्थापित करता है।

फ्यूचुरम ग्रुप (Futurum Group) के सीईओ डैनियल न्यूमैन ने वेरा रुबिन सिस्टम को एक "अविश्वसनीय पीढ़ीगत छलांग" (incredible generational leap) बताया। उन्होंने नोट किया कि शुरुआती अनावरण उत्पाद के समय पर उत्पादन और तेजी से बाजार आगमन में बाजार विश्वास का संकेत देता है, जो सेमीकंडक्टर उद्योग में प्रतिस्पर्धी दबावों को उच्च रखेगा। Nvidia के शेयरों में सोमवार के सत्र के दौरान बड़े पैमाने पर सपाट कारोबार हुआ।

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.