नवीन AI स्टार्टअप Adaption Labs, प्रभावी स्केलिंग पॅराडाइमला आव्हान देत आहे, अ‍ॅडॅप्टिव्ह लर्निंगवर लक्ष केंद्रित करत आहे

TECH
Whalesbook Logo
AuthorWhalesbook News Team|Published at:
नवीन AI स्टार्टअप Adaption Labs, प्रभावी स्केलिंग पॅराडाइमला आव्हान देत आहे, अ‍ॅडॅप्टिव्ह लर्निंगवर लक्ष केंद्रित करत आहे
Overview

मोठे AI लॅब्स लार्ज लँग्वेज मॉडेल्स (LLMs) स्केल करून प्रचंड, महागडे डेटा सेंटर्स तयार करत आहेत, जास्त कंप्यूटिंग पॉवरमुळे सुपरइंटेलिजन्स मिळेल यावर बाजी लावत आहेत. तथापि, AI संशोधकांची वाढती संख्या मानते की हा स्केलिंग दृष्टिकोन त्याच्या मर्यादांपर्यंत पोहोचत आहे. माजी Cohere आणि Google च्या तज्ञ सारा हुकर आणि सुदीप रॉय यांनी स्थापन केलेला Adaption Labs नावाचा नवीन स्टार्टअप, या पॅराडाइमला आव्हान देत आहे. ते कार्यक्षम, वास्तविक जगाच्या अनुभवावरून शिकणाऱ्या AI सिस्टीम्स विकसित करत आहेत, जे केवळ LLMs स्केल करण्याऐवजी अधिक किफायतशीर आणि शक्तिशाली पर्याय देऊ शकतात.

सध्याच्या AI उद्योगाचा ट्रेंड प्रचंड डेटा सेंटर्स तयार करणे आहे, ज्यांचा खर्च अब्जावधी डॉलर्समध्ये असतो आणि जे प्रचंड ऊर्जा वापरतात. हे "स्केलिंग" तत्त्वज्ञानाने प्रेरित आहे - लार्ज लँग्वेज मॉडेल्स (LLMs) मधील कंप्यूटिंग पॉवर आणि मॉडेलचा आकार वाढवल्याने अनिवार्यपणे सुपरइंटेलिजेंट सिस्टीम्स तयार होतील असा विश्वास. तथापि, AI संशोधकांचा एक मोठा गट आता या दृष्टिकोनाच्या परिणामकारकतेवर आणि टिकाऊपणावर प्रश्नचिन्ह उपस्थित करत आहे, असे सूचित करत आहे की ते आपल्या कामगिरीच्या मर्यादांपर्यंत पोहोचले असेल. ही शंका नवीन उपक्रमांना चालना देत आहे. सारा हुकर, जी पूर्वी Cohere मध्ये AI रिसर्चच्या VP होत्या आणि Google Brain च्या माजी विद्यार्थिनी आहेत, त्यांनी सुदीप रॉय यांच्यासह Adaption Labs ची सह-स्थापना केली आहे. LLMs फक्त स्केल करणे ही AI क्षमता सुधारण्याची एक अकार्यक्षम पद्धत आहे या गृहीतकावर त्यांचा स्टार्टअप आधारित आहे. त्याऐवजी, Adaption Labs अशा AI सिस्टीम्स विकसित करण्याचे ध्येय ठेवते जे मानवी अ‍ॅडॅप्टिव्ह लर्निंगप्रमाणे (human adaptive learning) उच्च कार्यक्षमतेसह वास्तविक जगाच्या अनुभवांमधून सतत जुळवून घेऊ शकतात आणि शिकू शकतात. परिणाम: ही बातमी AI विकासात एका मोठ्या बदलाचे संकेत देऊ शकते, जी संसाधन-केंद्रित स्केलिंग (resource-intensive scaling) पासून अधिक कार्यक्षम अ‍ॅडॅप्टिव्ह लर्निंगकडे सरकत आहे. यशस्वी झाल्यास, Adaption Labs चा दृष्टिकोन AI चे लोकशाहीकरण (democratize) करू शकतो, काही प्रमुख खेळाडूंचे वर्चस्व कमी करू शकतो आणि अधिक बहुमुखी आणि व्यावहारिक AI अनुप्रयोगांकडे नेऊ शकतो. हे भविष्यातील AI संशोधन निधी, तांत्रिक विकास आणि स्पर्धात्मक लँडस्केपवर महत्त्वपूर्ण प्रभाव टाकू शकते. रेटिंग: 8/10. कठीण शब्द: LLM (Large Language Model): मानवी भाषा समजून घेण्यासाठी, तयार करण्यासाठी आणि प्रक्रिया करण्यासाठी प्रचंड मजकूर डेटावर प्रशिक्षित केलेले AI मॉडेल्स. Scaling: AI मॉडेल्सचा आकार आणि कंप्यूटेशनल पॉवर वाढवण्याची पद्धत, त्यांना अधिक डेटा आणि संसाधने देऊन, ज्यामुळे कार्यक्षमतेत सुधारणा अपेक्षित आहे. Adaptive Learning: एक AI दृष्टिकोन जिथे मॉडेल्स त्यांच्या वातावरणातील नवीन डेटा आणि परस्परसंवादातून सतत शिकतात आणि समायोजित होतात, जसे मानव अनुभवातून शिकतात. Production: AI सिस्टीम तैनात केली जाते आणि अंतिम वापरकर्त्यांद्वारे सक्रियपणे वापरली जाते किंवा ऍप्लिकेशन्समध्ये समाकलित केली जाते. Reinforcement Learning (RL): मशीन लर्निंगचा एक प्रकार जिथे AI एजंट ट्रायल आणि एररद्वारे शिकतो, योग्य कृतींसाठी बक्षिसे आणि चुकीच्या कृतींसाठी दंड मिळवतो. Pretraining: AI मॉडेल प्रशिक्षणाचा प्रारंभिक टप्पा जिथे ते पॅटर्न आणि संकल्पनांची मूलभूत समज स्थापित करण्यासाठी मोठ्या, सामान्य डेटासेटवर प्रशिक्षित केले जाते. Reasoning Models: उत्तर देण्यापूर्वी जटिल समस्या-सोडवणूक आणि तार्किक डिडक्शन प्रक्रिया पार पाडण्यासाठी डिझाइन केलेले AI मॉडेल्स. Diminishing Returns: अशी परिस्थिती जिथे अधिक इनपुट (जसे की कंप्यूटिंग पॉवर किंवा डेटा) जोडल्याने आउटपुट किंवा कार्यक्षमतेत क्रमशः लहान वाढ होते.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.