DeFi-யில் AI: பாதுகாப்பு ஒரு புதிய கட்டத்தில்
DeFi துறையில் சைபர் பாதுகாப்பு என்பது ஒரு பெரிய ஆயுதப் போட்டி போல மாறி வருகிறது. சமீபத்திய ஆய்வில், இதற்காகவே பிரத்யேகமாக உருவாக்கப்பட்ட AI செக்யூரிட்டி ஏஜென்ட்கள், 92% DeFi ஸ்மார்ட் கான்ட்ராக்ட் பாதிப்புகளைக் கண்டறிந்துள்ளன. அக்டோபர் 2024 முதல் 2026 ஆரம்பம் வரை ஆய்வு செய்யப்பட்ட 90 பாதிக்கப்பட்ட கான்ட்ராக்ட்களில், இந்த AI $96.8 மில்லியன் மதிப்பிலான ஹேக்கிங் முயற்சிகளைக் கண்டுபிடித்துள்ளது. ஆனால், GPT-5.1 போன்ற பொதுவான AI கோட் ஏஜென்ட், அதே AI மாடலைப் பயன்படுத்தினாலும், வெறும் 34% பாதிப்புகளையே கண்டறிந்துள்ளது. இதனால் $7.5 மில்லியன் மதிப்புள்ள பாதிப்புகள் மட்டுமே கண்டுபிடிக்கப்பட்டுள்ளன. இவர்களுக்குள் இருந்த முக்கிய வேறுபாடு, பிரத்யேக AI-யில் பயன்படுத்தப்பட்ட துறையைப் பற்றிய அறிவு (domain-specific methodologies), முறையான ஆய்வு முறைகள் (structured review phases) மற்றும் DeFi சார்ந்த பாதுகாப்பு உத்திகள் (DeFi-focused security heuristics) ஆகும். இதனால், AI மூலம் நடக்கும் கிரிப்டோ குற்றங்கள் குறித்த கவலைகள் அதிகரித்து வருகின்றன.
தாக்குதல் AI-ன் அதிவேக வளர்ச்சி
இதற்கேற்ப, மேம்பட்ட AI ஏஜென்ட்கள் தற்போது பாதிக்கப்படக்கூடிய ஸ்மார்ட் கான்ட்ராக்ட்களில் முழுமையான ஹேக்கிங் தாக்குதல்களை நிகழ்த்தும் திறனைப் பெற்றுள்ளன. இதன் விளைவாக, ஒரு AI-யால் இயக்கப்படும் ஹேக்கிங் முயற்சிக்கு ஆகும் சராசரி செலவு வெறும் $1.22 ஆக குறைந்துள்ளது. இதனால், மோசடி செய்பவர்களுக்கு இது மிகவும் எளிதாகிவிட்டது. வட கொரியா போன்ற சில நாடுகள், AI-யைப் பயன்படுத்தி ஹேக்கிங் செயல்பாடுகளை விரிவுபடுத்துவதாகவும், தாக்குதல்களின் ஒரு பகுதியை தானியங்குபடுத்துவதாகவும் தகவல்கள் தெரிவிக்கின்றன. இதனால், பிளாக்செயின் துறையில் தாக்குதல் மற்றும் தடுப்புத் திறன்களுக்கு இடையிலான இடைவெளி அதிகரித்து வருகிறது.
தற்போதைய பாதுகாப்பு முறைகளின் போதாமை
இந்த ஆய்வின் முடிவுகள், பல DeFi குழுக்கள் இன்னும் பொதுவான AI கருவிகளையோ அல்லது எப்போதாவது ஒருமுறை செய்யப்படும் ஆடிட்களையோ நம்பி இருப்பதை வெளிச்சம் போட்டுக் காட்டுகிறது. இந்த முறைகள், அதிக மதிப்புள்ள, சிக்கலான பாதிப்புகளைக் கண்டறியத் தவறிவிடக்கூடும். மேலும் அதிர்ச்சியளிக்கும் விதமாக, இந்த ஆய்வில் பாதிக்கப்பட்ட பல ஸ்மார்ட் கான்ட்ராக்ட்கள், ஹேக் செய்யப்படுவதற்கு முன்பு கூட நிபுணர்களால் ஆடிட் செய்யப்பட்டிருந்தன. இது, அதிநவீன AI-யால் இயக்கப்படும் அச்சுறுத்தல்களுக்கு எதிராக பாரம்பரிய பாதுகாப்பு முறைகளின் வரம்புகளைக் காட்டுகிறது. ஸ்மார்ட் கான்ட்ராக்ட் ஆடிட் சந்தை வளர்ந்து வந்தாலும், புதிய தொழில்நுட்ப நிறுவனங்களே ஆதிக்கம் செலுத்துகின்றன. AI வேகத்தையும், அளவையும், குறைந்த செலவையும் வழங்கினாலும், சிக்கலான சூழல், பொருளாதார அபாயங்கள் மற்றும் AI தவறவிடக்கூடிய புதிய தாக்குதல் முறைகளைப் புரிந்துகொள்ள மனித ஆடிட்டர்கள் இன்றியமையாதவர்கள்.
எதிர்காலப் பார்வை: தொடரும் AI ஆயுதப் போட்டி
DeFi பாதுகாப்பிற்கு இது ஒரு கடுமையான சூழலை உருவாக்குகிறது. AI-யால் இயக்கப்படும் தாக்குதல் கருவிகளின் அதிவேக வளர்ச்சி மற்றும் குறைந்த செலவு, தாக்குபவர்களுக்கு எப்போதும் ஒரு அனுகூலத்தை அளிக்கும் என எதிர்பார்க்கப்படுகிறது. வட கொரியா போன்ற அதிநவீன, அரசு ஆதரவு பெற்ற குழுக்களின் ஈடுபாடு, AI-யைப் பயன்படுத்தி சமூக பொறியியல் (social engineering), டீப்ஃபேக்குகள் (deepfakes) மற்றும் தாக்குதல் செயல்முறைகளை தானியங்குபடுத்துதல் போன்றவை, சிறப்பு வாய்ந்த, தானாகவே தகவமைத்துக் கொள்ளும் பாதுகாப்பு AI உத்திகளின் அவசரத் தேவையைக் காட்டுகின்றன. பொதுவான AI கருவிகள் மற்றும் நிபுணர் ஆடிட்கள் கூட இந்த மேம்பட்ட அச்சுறுத்தல்களுக்கு எதிராக போதுமானதாக இல்லை என்பது, தற்போதைய பாதுகாப்பு நடவடிக்கைகள் DeFi-ஐப் பாதுகாக்க போதுமானதாக இருக்காது என்பதைக் குறிக்கிறது. AI மூலம் தாக்குதல் திறன்கள் மிகவும் மலிவாகிவிட்டதால், ஆயிரக்கணக்கான கான்ட்ராக்ட்களில் எளிதாகத் தாக்குதல் நடத்தக்கூடிய சூழல் உருவாகியுள்ளது.
DeFi துறை ஒரு முக்கிய கட்டத்தை எட்டியுள்ளது. இதற்கு, பாதுகாப்பு AI உத்திகளில் விரைவான வளர்ச்சி தேவை. பிரத்யேக, துறை சார்ந்த AI என்பது தற்போதைய அச்சுறுத்தல்களுக்கு எதிராக மிகவும் பயனுள்ள கவசமாகும். இருப்பினும், தாக்குதல் AI திறன்களின் தொடர்ச்சியான வளர்ச்சி, இந்த சிறப்பு பாதுகாப்பு கருவிகளில் தொடர்ச்சியான முதலீடு மற்றும் மேம்பாட்டை அவசியமாக்குகிறது. AI என்பது தாக்குபவர்கள் மற்றும் பாதுகாப்பவர்கள் இருவருக்கும் பலம் சேர்க்கும் ஒரு இருமுனைக் கத்தியாகவே இருக்கும். எதிர்காலம், AI-யின் வேகம் மற்றும் அளவை மனித நிபுணர்களின் தீர்ப்பு மற்றும் சூழல் புரிதலுடன் இணைத்து, மேலும் உறுதியான DeFi நெறிமுறைகளை உருவாக்குவதிலும், AI-யால் இயக்கப்படும் தாக்குதல் அபாயங்களைக் குறைப்பதிலும் உள்ளது.