વર્તમાન AI ઉદ્યોગનો ટ્રેન્ડ વિશાળ ડેટા સેન્ટરો બનાવવાનો છે, જેનો ખર્ચ ઘણીવાર અબજો ડોલર થાય છે અને જે પુષ્કળ ઊર્જાનો વપરાશ કરે છે. આ "સ્કેલિંગ" ફિલસૂફી દ્વારા પ્રેરિત છે - લાર્જ લેંગ્વેજ મોડેલ્સ (LLMs) માં કમ્પ્યુટિંગ પાવર અને મોડેલનું કદ વધારવાથી અનિવાર્યપણે સુપરઇન્ટેલિજન્ટ સિસ્ટમ્સ બનશે તેવી માન્યતા. જોકે, AI સંશોધકોનો એક નોંધપાત્ર વર્ગ હવે આ અભિગમની અસરકારકતા અને સ્થિરતા પર પ્રશ્ન ઉઠાવી રહ્યો છે, એમ સૂચવી રહ્યો છે કે તે તેની પ્રદર્શન મર્યાદા સુધી પહોંચી ગયો હશે. આ શંકા નવા સાહસોને પ્રોત્સાહન આપી રહી છે. સારા હૂકર, જેઓ ભૂતપૂર્વ Cohere માં AI રિસર્ચના VP અને Google Brain ના ભૂતપૂર્વ વિદ્યાર્થી છે, તેમણે સુદીપ રોય સાથે મળીને Adaption Labs ની સહ-સ્થાપના કરી છે. તેમનો સ્ટાર્ટઅપ એ આધાર પર બનેલો છે કે LLMs ને ફક્ત સ્કેલ કરવું એ AI ક્ષમતાઓને સુધારવાની એક બિનકાર્યક્ષમ પદ્ધતિ છે. તેના બદલે, Adaption Labs, માનવીય એડેપ્ટિવ લર્નિંગ (human adaptive learning) ની જેમ, વાસ્તવિક દુનિયાના અનુભવોમાંથી ઉચ્ચ કાર્યક્ષમતા સાથે સતત અનુકૂલન અને શીખી શકે તેવી AI સિસ્ટમ્સ વિકસાવવાનું લક્ષ્ય રાખે છે. અસર: આ સમાચાર AI વિકાસમાં એક મોટા પરિવર્તનના સંકેત આપી શકે છે, જે સંસાધન-કેન્દ્રિત સ્કેલિંગ (resource-intensive scaling) થી વધુ કાર્યક્ષમ એડેપ્ટિવ લર્નિંગ તરફ આગળ વધી રહ્યું છે. જો સફળ થાય, તો Adaption Labs નો અભિગમ AI ને લોકશાહી (democratize) કરી શકે છે, કેટલાક મુખ્ય ખેલાડીઓના વર્ચસ્વને ઘટાડી શકે છે, અને વધુ સર્વતોમુખી અને વ્યવહારુ AI એપ્લિકેશન્સ તરફ દોરી શકે છે. આ ભવિષ્યના AI સંશોધન ભંડોળ, તકનીકી વિકાસ અને સ્પર્ધાત્મક પરિદૃશ્ય પર નોંધપાત્ર અસર કરી શકે છે. રેટિંગ: 8/10. મુશ્કેલ શબ્દો: LLM (Large Language Model): માનવ ભાષાને સમજવા, ઉત્પન્ન કરવા અને પ્રક્રિયા કરવા માટે વિશાળ ટેક્સ્ટ ડેટા પર તાલીમ પામેલા AI મોડેલ્સ. Scaling: AI મોડેલ્સના કદ અને કમ્પ્યુટેશનલ પાવરને વધારવાની પ્રથા, તેમને વધુ ડેટા અને સંસાધનો આપીને, જેનાથી પ્રદર્શન સુધરવાની અપેક્ષા છે. Adaptive Learning: એક AI અભિગમ જ્યાં મોડેલ્સ તેમના પર્યાવરણમાં નવા ડેટા અને ક્રિયાપ્રતિક્રિયાઓમાંથી સતત શીખે છે અને સમાયોજિત થાય છે, જેમ કે મનુષ્યો અનુભવથી શીખે છે. Production: તે તબક્કો જ્યારે AI સિસ્ટમ જમાવવામાં આવે છે અને અંતિમ વપરાશકર્તાઓ દ્વારા સક્રિયપણે ઉપયોગમાં લેવાય છે અથવા એપ્લિકેશન્સમાં એકીકૃત થાય છે. Reinforcement Learning (RL): મશીન લર્નિંગનો એક પ્રકાર જ્યાં AI એજન્ટ ટ્રાયલ અને ભૂલ દ્વારા શીખે છે, સાચા કાર્યો માટે પુરસ્કારો અને ખોટા કાર્યો માટે દંડ મેળવે છે. Pretraining: AI મોડેલ તાલીમનો પ્રારંભિક તબક્કો જ્યાં તે પેટર્ન અને ખ્યાલોની મૂળભૂત સમજ સ્થાપિત કરવા માટે મોટા, સામાન્ય ડેટાસેટ પર તાલીમ પામે છે. Reasoning Models: જવાબ આપતા પહેલા જટિલ સમસ્યા-નિવારણ અને તાર્કિક કપાત પ્રક્રિયાઓ કરવા માટે રચાયેલ AI મોડેલ્સ. Diminishing Returns: એવી પરિસ્થિતિ જ્યાં વધુ ઇનપુટ (જેમ કે કમ્પ્યુટિંગ પાવર અથવા ડેટા) ઉમેરવાથી આઉટપુટ અથવા પ્રદર્શનમાં ક્રમશઃ નાનો વધારો થાય છે.
નવો AI સ્ટાર્ટઅપ Adaption Labs, પ્રભાવી સ્કેલિંગ પદ્ધતિ (Scaling Paradigm) ને પડકારે છે, એડેપ્ટિવ લર્નિંગ પર ધ્યાન કેન્દ્રિત કરે છે
TECHOverview
મોટી AI લેબ્સ, લાર્જ લેંગ્વેજ મોડલ્સ (LLMs) ને સ્કેલ કરીને વિશાળ, મોંઘા ડેટા સેન્ટરો બનાવી રહી છે, વધુ કમ્પ્યુટિંગ પાવર સુપરઇન્ટેલિજન્સ આપશે તેવા દાવ પર. જોકે, AI સંશોધકોની વધતી સંખ્યા માને છે કે આ સ્કેલિંગ અભિગમ તેની મર્યાદા સુધી પહોંચી રહ્યો છે. ભૂતપૂર્વ Cohere અને Google ના અનુભવીઓ સારા હૂકર અને સુદીપ રોય દ્વારા સ્થાપિત Adaption Labs નામનો નવો સ્ટાર્ટઅપ, આ પદ્ધતિને પડકારી રહ્યો છે. તેઓ કાર્યક્ષમ, વાસ્તવિક દુનિયાના અનુભવમાંથી શીખતા AI સિસ્ટમ્સ વિકસાવી રહ્યા છે, જે ફક્ત LLMs ને સ્કેલ કરવા કરતાં વધુ ખર્ચ-અસરકારક અને શક્તિશાળી વિકલ્પ પ્રદાન કરી શકે છે.
Disclaimer:This content
is for educational and informational purposes only and does not constitute investment, financial, or
trading advice, nor a recommendation to buy or sell any securities. Readers should consult a
SEBI-registered advisor before making investment decisions, as markets involve risk and past performance
does not guarantee future results. The publisher and authors accept no liability for any losses. Some
content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views
expressed do not reflect the publication’s editorial stance.