वर्तमान AI उद्योग का चलन विशाल डेटा सेंटर बनाना है, जिनकी लागत अक्सर अरबों डॉलर होती है और जो भारी मात्रा में ऊर्जा की खपत करते हैं। यह "स्केलिंग" दर्शन द्वारा संचालित है - यह विश्वास कि लार्ज लैंग्वेज मॉडल्स (LLMs) में कंप्यूटिंग पावर और मॉडल के आकार को बढ़ाने से अनिवार्य रूप से सुपरइंटेलिजेंट सिस्टम बनेंगे। हालांकि, AI शोधकर्ताओं का एक महत्वपूर्ण वर्ग अब इस दृष्टिकोण की प्रभावशीलता और स्थिरता पर सवाल उठा रहा है, यह सुझाव देते हुए कि यह अपनी प्रदर्शन सीमाओं को छू रहा है। यह संदेह नए उद्यमों को बढ़ावा दे रहा है। सारा हुकर, जो पहले Cohere में VP of AI Research और Google Brain की पूर्व छात्रा रह चुकी हैं, ने सुदीप रॉय के साथ Adaption Labs की सह-स्थापना की है। उनका स्टार्टअप इस आधार पर बनाया गया है कि LLMs को केवल स्केल करना AI क्षमताओं को बेहतर बनाने का एक अक्षम तरीका है। इसके बजाय, Adaption Labs ऐसे AI सिस्टम विकसित करना चाहता है जो उच्च दक्षता के साथ वास्तविक दुनिया के अनुभवों से लगातार अनुकूलन और सीख सकें, एक ऐसी अवधारणा जिसे हुकर मानव अनुकूली शिक्षण (human adaptive learning) से जोड़ती हैं। प्रभाव: यह खबर AI विकास में एक बड़े बदलाव का संकेत दे सकती है, जो संसाधन-गहन स्केलिंग (resource-intensive scaling) से हटकर अधिक कुशल एडेप्टिव लर्निंग की ओर बढ़ रही है। यदि सफल रहा, तो Adaption Labs का दृष्टिकोण AI को लोकतांत्रित (democratize) कर सकता है, कुछ प्रमुख खिलाड़ियों के प्रभुत्व को कम कर सकता है, और अधिक बहुमुखी और व्यावहारिक AI अनुप्रयोगों की ओर ले जा सकता है। यह भविष्य के AI अनुसंधान वित्तपोषण, तकनीकी विकास और प्रतिस्पर्धी परिदृश्य को महत्वपूर्ण रूप से प्रभावित कर सकता है। रेटिंग: 8/10. कठिन शब्द: LLM (Large Language Model): AI मॉडल जिन्हें मानव भाषा को समझने, उत्पन्न करने और संसाधित करने के लिए विशाल टेक्स्ट डेटा पर प्रशिक्षित किया जाता है। Scaling: AI मॉडल्स के आकार और कंप्यूटेशनल शक्ति को बढ़ाकर, उन्हें अधिक डेटा और संसाधन देकर, प्रदर्शन में सुधार की उम्मीद में अभ्यास। Adaptive Learning: एक AI दृष्टिकोण जहां मॉडल अपने वातावरण में नए डेटा और इंटरैक्शन से लगातार सीखते और समायोजित होते हैं, जैसे मनुष्य अनुभव से सीखते हैं। Production: वह चरण जब एक AI सिस्टम तैनात किया जाता है और एंड-यूजर्स द्वारा सक्रिय रूप से उपयोग किया जाता है या अनुप्रयोगों में एकीकृत किया जाता है। Reinforcement Learning (RL): मशीन लर्निंग का एक प्रकार जहां एक AI एजेंट परीक्षण और त्रुटि से सीखता है, सही कार्यों के लिए पुरस्कार और गलत कार्यों के लिए दंड प्राप्त करता है। Pretraining: AI मॉडल प्रशिक्षण का प्रारंभिक चरण जहां इसे पैटर्न और अवधारणाओं की एक मूलभूत समझ स्थापित करने के लिए एक बड़े, सामान्य डेटासेट पर प्रशिक्षित किया जाता है। Reasoning Models: AI मॉडल जो उत्तर देने से पहले जटिल समस्या-समाधान और तार्किक कटौती प्रक्रियाओं को करते हैं। Diminishing Returns: ऐसी स्थिति जहां अधिक इनपुट (जैसे कंप्यूटिंग शक्ति या डेटा) जोड़ने से आउटपुट या प्रदर्शन में क्रमशः छोटी वृद्धि होती है।
नया AI स्टार्टअप Adaption Labs प्रमुख स्केलिंग पैराडाइम को चुनौती दे रहा है, एडेप्टिव लर्निंग पर ध्यान केंद्रित
TECHOverview
बड़े AI लैब्स बड़े, महंगे डेटा सेंटर बना रहे हैं लार्ज लैंग्वेज मॉडल्स (LLMs) को स्केल करके, यह उम्मीद करते हुए कि अधिक कंप्यूटिंग पावर से सुपरइंटेलिजेंस प्राप्त होगी। हालांकि, AI शोधकर्ताओं की बढ़ती संख्या का मानना है कि यह स्केलिंग दृष्टिकोण अपनी सीमाओं तक पहुँच रहा है। एक नया स्टार्टअप, Adaption Labs, जिसे पूर्व Cohere और Google के दिग्गजों सारा हुकर और सुदीप रॉय ने स्थापित किया है, इस पैराडाइम को चुनौती दे रहा है। वे कुशल, वास्तविक दुनिया के अनुभव से सीखने वाले AI सिस्टम विकसित कर रहे हैं, जो LLMs को केवल स्केल करने के एक अधिक लागत-प्रभावी और शक्तिशाली विकल्प की पेशकश कर सकते हैं।
Disclaimer:This content
is for educational and informational purposes only and does not constitute investment, financial, or
trading advice, nor a recommendation to buy or sell any securities. Readers should consult a
SEBI-registered advisor before making investment decisions, as markets involve risk and past performance
does not guarantee future results. The publisher and authors accept no liability for any losses. Some
content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views
expressed do not reflect the publication’s editorial stance.