புதிய AI ஸ்டார்ட்அப் Adaption Labs, ஆதிக்கம் செலுத்தும் அளவிடுதல் முறையை (Scaling Paradigm) சவால் செய்கிறது, தகவமைப்பு கற்றலில் (Adaptive Learning) கவனம் செலுத்துகிறது

TECH
Whalesbook Logo
AuthorWhalesbook News Team|Published at:
புதிய AI ஸ்டார்ட்அப் Adaption Labs, ஆதிக்கம் செலுத்தும் அளவிடுதல் முறையை (Scaling Paradigm) சவால் செய்கிறது, தகவமைப்பு கற்றலில் (Adaptive Learning) கவனம் செலுத்துகிறது
Overview

பெரிய AI ஆய்வகங்கள், பெரிய மொழி மாதிரிகளை (LLMs) அளவிடுதல் மூலம் மிகப்பெரிய, விலை உயர்ந்த தரவு மையங்களை உருவாக்குகின்றன, அதிக கணினி சக்தி மீநுண்ணறிவை (superintelligence) உருவாக்கும் என்ற பந்தயத்தில். இருப்பினும், AI ஆராய்ச்சியாளர்களின் எண்ணிக்கை அதிகரித்து வருகிறது, இந்த அளவிடுதல் அணுகுமுறை அதன் வரம்புகளை எட்டுகிறது என்று நம்புகிறார்கள். முன்னாள் Cohere மற்றும் Google வல்லுநர்களான சாரா ஹூக்கர் மற்றும் சுதிப் ராய் ஆகியோரால் நிறுவப்பட்ட Adaption Labs என்ற புதிய ஸ்டார்ட்அப், இந்த முறையை சவால் செய்கிறது. அவர்கள் நிஜ-உலக அனுபவத்திலிருந்து திறமையான, தகவமைப்புடன் கற்கும் AI அமைப்புகளை உருவாக்கி வருகின்றனர், இது LLM-களை வெறுமனே அளவிடுவதற்கு பதிலாக மிகவும் செலவு குறைந்த மற்றும் சக்திவாய்ந்த மாற்றீட்டை வழங்கக்கூடும்.

தற்போதைய AI துறையின் போக்கு, பாரிய தரவு மையங்களை உருவாக்குவது, இவை பெரும்பாலும் பில்லியன் கணக்கான செலவாகும் மற்றும் மகத்தான ஆற்றலை நுகர்கின்றன. இது "அளவிடுதல்" (scaling) தத்துவத்தால் இயக்கப்படுகிறது - அதாவது பெரிய மொழி மாதிரிகளில் (LLMs) கணினி சக்தி மற்றும் மாதிரி அளவை அதிகரிப்பது தவிர்க்க முடியாமல் மீநுண்ணறிவு அமைப்புகளுக்கு வழிவகுக்கும் என்ற நம்பிக்கை. இருப்பினும், AI ஆராய்ச்சியாளர்களின் ஒரு குறிப்பிடத்தக்க குழு இப்போது இந்த அணுகுமுறையின் செயல்திறன் மற்றும் நிலைத்தன்மையை கேள்விக்குள்ளாக்கி வருகிறது, இது அதன் செயல்திறன் வரம்புகளை எட்டக்கூடும் என்று தெரிவிக்கிறது. இந்த சந்தேகம் புதிய முயற்சிகளைத் தூண்டுகிறது. Cohere இல் AI ஆராய்ச்சியின் VP ஆக இருந்தவரும், Google Brain இன் முன்னாள் மாணவியுமான சாரா ஹூக்கர், சுதிப் ராயுடன் இணைந்து Adaption Labs-ஐ நிறுவியுள்ளார். LLM-களை அளவிடுவது AI திறன்களை மேம்படுத்துவதற்கான ஒரு திறமையற்ற முறை என்ற அடிப்படையில் அவர்களின் ஸ்டார்ட்அப் கட்டப்பட்டுள்ளது. அதற்கு பதிலாக, Adaption Labs, மனித தகவமைப்பு கற்றலைப் (human adaptive learning) போலவே, நிஜ-உலக அனுபவங்களிலிருந்து அதிக செயல்திறனுடன் தொடர்ந்து கற்றுக்கொள்ளவும், தகவமைத்துக்கொள்ளவும் கூடிய AI அமைப்புகளை உருவாக்க நோக்கமாகக் கொண்டுள்ளது. தாக்கம்: இந்த செய்தி AI வளர்ச்சியில் ஒரு பெரிய மாற்றத்தைக் குறிக்கலாம், இது வள-செறிவான அளவிடுதலிருந்து (resource-intensive scaling) மிகவும் திறமையான தகவமைப்பு கற்றலை நோக்கி நகர்கிறது. வெற்றிகரமாக இருந்தால், Adaption Labs-ன் அணுகுமுறை AI-ஐ ஜனநாயகப்படுத்தலாம் (democratize), சில பெரிய வீரர்களின் ஆதிக்கத்தைக் குறைக்கலாம், மேலும் பல்துறை மற்றும் நடைமுறை AI பயன்பாடுகளுக்கு வழிவகுக்கலாம். இது எதிர்கால AI ஆராய்ச்சி நிதி, தொழில்நுட்ப மேம்பாடு மற்றும் போட்டி நிலப்பரப்பை கணிசமாக பாதிக்கலாம். மதிப்பீடு: 8/10. கடினமான சொற்கள்: LLM (Large Language Model): மனித மொழியைப் புரிந்துகொள்ள, உருவாக்க மற்றும் செயலாக்க பரந்த அளவிலான உரைத் தரவுகளில் பயிற்சி பெற்ற AI மாதிரிகள். Scaling: AI மாதிரிகளின் அளவு மற்றும் கணக்கீட்டு சக்தியை அதிகரித்து, அதிக தரவு மற்றும் வளங்களை வழங்குவதன் மூலம், செயல்திறன் மேம்படும் என்ற எதிர்பார்ப்புடன் பயிற்சி. Adaptive Learning: ஒரு AI அணுகுமுறை, அங்கு மாதிரிகள் தங்கள் சூழலில் புதிய தரவு மற்றும் தொடர்புகளிலிருந்து தொடர்ந்து கற்றுக்கொண்டு சரிசெய்கின்றன, மனிதர்கள் அனுபவத்திலிருந்து கற்றுக்கொள்வதைப் போன்றது. Production: ஒரு AI அமைப்பு பயன்படுத்தப்படும்போது அல்லது பயன்பாடுகளில் ஒருங்கிணைக்கப்படும்போது. Reinforcement Learning (RL): ஒரு வகை இயந்திர கற்றல், அங்கு ஒரு AI முகவர் சோதனை மற்றும் பிழை மூலம் கற்றுக்கொள்கிறது, சரியான செயல்களுக்கு வெகுமதிகளையும் தவறான செயல்களுக்கு அபராதங்களையும் பெறுகிறது. Pretraining: ஒரு AI மாதிரியின் ஆரம்ப பயிற்சி நிலை, அங்கு அது வடிவங்கள் மற்றும் கருத்துக்களைப் பற்றிய அடிப்படை புரிதலை நிறுவ பரந்த, பொதுவான தரவுத்தொகுப்பில் பயிற்சி அளிக்கப்படுகிறது. Reasoning Models: பதிலளிக்கும் முன் சிக்கலான சிக்கல் தீர்க்கும் மற்றும் தர்க்கரீதியான கழித்தல் செயல்முறைகளைச் செய்யும் AI மாதிரிகள். Diminishing Returns: அதிக உள்ளீட்டை (கணக்கீட்டு சக்தி அல்லது தரவு போன்றவை) சேர்க்கும்போது, வெளியீடு அல்லது செயல்திறனில் படிப்படியாக குறைவான அதிகரிப்புகளைப் பெறும் ஒரு நிலை.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.