DeFi ਸੁਰੱਖਿਆ ਵਿੱਚ ਵਿਸ਼ੇਸ਼ AI ਦਾ ਫਾਇਦਾ
DeFi ਸੈਕਟਰ ਵਿੱਚ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਨੂੰ ਲੈ ਕੇ ਇੱਕ ਖਤਰਨਾਕ 'Arms Race' ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ। ਇੱਕ ਨਵੇਂ ਬੈਂਚਮਾਰਕ ਨੇ ਪੁਖਤਾ ਕੀਤਾ ਹੈ ਕਿ ਵਿਸ਼ੇਸ਼ ਤੌਰ 'ਤੇ ਤਿਆਰ ਕੀਤੇ ਗਏ AI (Artificial Intelligence) ਸੁਰੱਖਿਆ ਏਜੰਟ, DeFi Smart Contracts ਵਿੱਚ 92% Exploits ਦਾ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਕਾਮਯਾਬ ਰਹੇ ਹਨ। ਇਹਨਾਂ ਏਜੰਟਾਂ ਨੇ 96.8 ਮਿਲੀਅਨ ਡਾਲਰ ਦੇ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਨੂੰ ਫਲੈਗ ਕੀਤਾ। ਇਸ ਦੇ ਉਲਟ, ਇੱਕ ਆਮ GPT-5.1-ਅਧਾਰਿਤ ਕੋਡਿੰਗ ਏਜੰਟ, ਜੋ ਕਿ ਉਹੀ ਬੁਨਿਆਦੀ AI ਮਾਡਲ ਵਰਤਦਾ ਸੀ, ਸਿਰਫ 34% ਕਮਜ਼ੋਰੀਆਂ ਦਾ ਪਤਾ ਲਗਾ ਸਕਿਆ, ਜਿਸ ਨਾਲ ਸਿਰਫ 7.5 ਮਿਲੀਅਨ ਡਾਲਰ ਦਾ ਨੁਕਸਾਨ ਬਚਾਇਆ ਜਾ ਸਕਿਆ। ਇਸ ਸਫਲਤਾ ਦਾ ਮੁੱਖ ਕਾਰਨ AI ਮਾਡਲ ਨਹੀਂ, ਬਲਕਿ ਐਪਲੀਕੇਸ਼ਨ ਲੇਅਰ ਸੀ, ਜਿਸ ਵਿੱਚ ਡੋਮੇਨ-ਵਿਸ਼ੇਸ਼ (Domain-specific) ਵਿਧੀ, ਢਾਂਚਾਗਤ ਸਮੀਖਿਆ (structured review) ਅਤੇ DeFi-ਕੇਂਦ੍ਰਿਤ ਸੁਰੱਖਿਆ ਨਿਯਮਾਂ (heuristics) ਨੂੰ ਸ਼ਾਮਲ ਕੀਤਾ ਗਿਆ ਸੀ।
AI ਖਤਰੇ ਦਾ ਵਧਦਾ ਲੈਂਡਸਕੇਪ
ਹਾਲ ਹੀ ਦੀਆਂ ਰਿਪੋਰਟਾਂ ਦੱਸਦੀਆਂ ਹਨ ਕਿ ਐਡਵਾਂਸ AI ਏਜੰਟ ਹੁਣ ਕਮਜ਼ੋਰ ਸਮਾਰਟ ਕੰਟਰੈਕਟਾਂ (Smart Contracts) 'ਤੇ ਐਂਡ-ਟੂ-ਐਂਡ ਐਕਸਪਲੋਇਟ (end-to-end exploits) ਕਰ ਸਕਦੇ ਹਨ। ਇਹਨਾਂ ਦੀ ਕਾਰਜਕੁਸ਼ਲਤਾ ਹਰ 1.3 ਮਹੀਨੇ ਵਿੱਚ ਲਗਭਗ ਦੁੱਗਣੀ ਹੋ ਰਹੀ ਹੈ। ਇੱਕ AI-ਆਧਾਰਿਤ ਐਕਸਪਲੋਇਟ (exploit) ਦਾ ਔਸਤਨ ਖਰਚਾ ਘਟ ਕੇ ਸਿਰਫ 1.22 ਡਾਲਰ ਪ੍ਰਤੀ ਕੰਟਰੈਕਟ ਰਹਿ ਗਿਆ ਹੈ, ਜਿਸ ਨਾਲ ਗੈਰ-ਕਾਨੂੰਨੀ ਕੰਮ ਕਰਨ ਵਾਲਿਆਂ ਲਈ ਦਾਖਲੇ ਦਾ ਬਾਰ ਬਹੁਤ ਨੀਵਾਂ ਹੋ ਗਿਆ ਹੈ। ਇਸ ਖਤਰੇ ਨੂੰ ਉੱਤਰੀ ਕੋਰੀਆ ਵਰਗੇ ਰਾਜ-ਪ੍ਰਯੋਜਿਤ ਸਮੂਹ (state-sponsored groups) ਹੋਰ ਵਧਾ ਰਹੇ ਹਨ, ਜੋ AI ਦੀ ਵਰਤੋਂ ਹੈਕਿੰਗ ਕਾਰਵਾਈਆਂ ਨੂੰ ਤੇਜ਼ ਕਰਨ ਅਤੇ ਐਕਸਪਲੋਇਟ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਆਟੋਮੇਟ ਕਰਨ ਲਈ ਕਰ ਰਹੇ ਹਨ।
ਮੌਜੂਦਾ ਬਚਾਅ ਉਪਾਵਾਂ ਦੀ ਨਾਕਾਫ਼ੀ
ਬੈਂਚਮਾਰਕ ਦੇ ਨਤੀਜਿਆਂ ਤੋਂ ਇਹ ਵੀ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ ਕਈ DeFi ਟੀਮਾਂ ਅਜੇ ਵੀ ਆਮ-ਮਕਸਦ ਵਾਲੇ AI (general-purpose AI) ਟੂਲਜ਼ ਜਾਂ ਕਦੇ-ਕਦਾਈਂ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਔਡਿਟ (audits) 'ਤੇ ਨਿਰਭਰ ਹਨ। ਇਹ ਪਹੁੰਚ ਵੱਡੇ ਮੁੱਲ ਵਾਲੀਆਂ, ਗੁੰਝਲਦਾਰ ਕਮਜ਼ੋਰੀਆਂ ਨੂੰ ਖੁੰਝਾ ਸਕਦੀ ਹੈ। ਚਿੰਤਾਜਨਕ ਗੱਲ ਇਹ ਹੈ ਕਿ ਅਧਿਐਨ ਵਿੱਚ ਸ਼ਾਮਲ ਕਈ ਹੈਕ ਕੀਤੇ ਗਏ ਕੰਟਰੈਕਟ ਪਹਿਲਾਂ ਵੀ ਪੇਸ਼ੇਵਰ ਔਡਿਟਾਂ ਤੋਂ ਗੁਜ਼ਰ ਚੁੱਕੇ ਸਨ, ਜੋ ਕਿ AI-ਦੁਆਰਾ ਸੰਚਾਲਿਤ ਖਤਰਿਆਂ ਦੇ ਮੁਕਾਬਲੇ ਰਵਾਇਤੀ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ਹਾਲਾਂਕਿ AI ਔਡਿਟਾਂ ਲਈ ਗਤੀ, ਪੈਮਾਨਾ ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ 'ਤੇ ਘੱਟ ਲਾਗਤ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਮਨੁੱਖੀ ਔਡੀਟਰ ਹੁਣ ਵੀ ਸੂਖਮ ਪ੍ਰਸੰਗ (nuanced context), ਆਰਥਿਕ ਜੋਖਮ (economic risk) ਅਤੇ ਨਵੇਂ ਹਮਲਾਵਰ ਵੈਕਟਰਾਂ (attack vectors) ਨੂੰ ਸਮਝਣ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹਨ ਜੋ AI ਖੁੰਝ ਸਕਦਾ ਹੈ।
ਬੇਅਰ ਕੇਸ: ਇੱਕ ਨਿਰੰਤਰ AI Arms Race
ਇਹਨਾਂ ਨਤੀਜਿਆਂ ਨੇ DeFi ਸੁਰੱਖਿਆ ਲਈ ਇੱਕ ਨਿਰਾਸ਼ਾਜਨਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਪੇਸ਼ ਕੀਤਾ ਹੈ। AI-ਆਧਾਰਿਤ ਐਕਸਪਲੋਇਟ ਟੂਲਜ਼ ਦੀ ਤੇਜ਼ੀ ਨਾਲ ਤਰੱਕੀ ਅਤੇ ਘੱਟ ਲਾਗਤ, ਹਰ 1.3 ਮਹੀਨੇ ਵਿੱਚ ਦੁੱਗਣੀ ਹੋਣ ਵਾਲੀ ਐਕਸਪਲੋਇਟ ਸਮਰੱਥਾ ਦੇ ਨਾਲ, ਇੱਕ ਨਿਰੰਤਰ 'ਬਿੱਲੀ-ਅਤੇ-ਮਾਊਸ' ਖੇਡ ਦਾ ਸੁਝਾਅ ਦਿੰਦੀ ਹੈ ਜਿਸ ਵਿੱਚ ਹਮਲਾਵਰਾਂ ਕੋਲ ਲਗਾਤਾਰ ਲਾਭ ਹੋ ਸਕਦਾ ਹੈ। ਉੱਤਰੀ ਕੋਰੀਆ ਵਰਗੇ ਰਾਜ-ਸਮਰਥਿਤ ਕਲਾਕਾਰਾਂ ਦੀ ਸ਼ਮੂਲੀਅਤ, ਜੋ ਆਪਣੇ ਸ਼ਾਸਨ ਨੂੰ ਫੰਡ ਦੇਣ ਲਈ ਅਰਬਾਂ ਡਾਲਰ ਦੀ ਕ੍ਰਿਪਟੋਕਰੰਸੀ ਚੋਰੀ ਕਰਨ ਦੀ ਰਿਪੋਰਟ ਹੈ, ਇੱਕ ਪ੍ਰਣਾਲੀਗਤ ਜੋਖਮ (systemic risk) ਜੋੜਦੀ ਹੈ। ਇਹਨਾਂ ਉੱਨਤ ਖਤਰਿਆਂ ਦੇ ਵਿਰੁੱਧ ਜਨਰਿਕ AI ਟੂਲਜ਼ ਅਤੇ ਪੇਸ਼ੇਵਰ ਔਡਿਟਾਂ ਦੀ ਅਯੋਗਤਾ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਮੌਜੂਦਾ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ ਤੇਜ਼ੀ ਨਾਲ ਫੈਲ ਰਹੇ DeFi ਈਕੋਸਿਸਟਮ ਦੀ ਸੁਰੱਖਿਆ ਲਈ ਬੁਨਿਆਦੀ ਤੌਰ 'ਤੇ ਅਯੋਗ ਹੋ ਸਕਦੀਆਂ ਹਨ।
ਭਵਿੱਖ ਦਾ ਨਜ਼ਰੀਆ: ਵਿਕਸਿਤ ਹੋ ਰਹੀ ਰੱਖਿਆ ਦੀ ਅਹਿਮੀਅਤ
DeFi ਉਦਯੋਗ ਇੱਕ ਨਾਜ਼ੁਕ ਮੋੜ 'ਤੇ ਖੜ੍ਹਾ ਹੈ, ਜਿਸ ਲਈ ਰੱਖਿਆਤਮਕ AI ਰਣਨੀਤੀਆਂ (defensive AI strategies) ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਾਸ ਦੀ ਲੋੜ ਹੈ। ਬੈਂਚਮਾਰਕ ਨੇ ਇਹ ਉਜਾਗਰ ਕੀਤਾ ਹੈ ਕਿ ਵਿਸ਼ੇਸ਼, ਡੋਮੇਨ-ਫੋਕਸਡ AI ਮੌਜੂਦਾ ਖਤਰਿਆਂ ਦੇ ਵਿਰੁੱਧ ਇੱਕ ਵਧੇਰੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢਾਲ (shield) ਹੈ। ਹਾਲਾਂਕਿ, ਹਮਲਾਵਰ AI ਸਮਰੱਥਾਵਾਂ (offensive AI capabilities) ਦੇ ਨਿਰੰਤਰ ਵਿਕਾਸ ਲਈ ਇਹਨਾਂ ਵਿਸ਼ੇਸ਼ ਰੱਖਿਆਤਮਕ ਸਾਧਨਾਂ ਵਿੱਚ ਨਿਰੰਤਰ ਨਿਵੇਸ਼ ਅਤੇ ਸੁਧਾਰ ਦੀ ਲੋੜ ਹੈ। ਵਿਸ਼ਲੇਸ਼ਕ ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਕਿ AI ਇੱਕ ਦੋ-ਧਾਰੀ ਤਲਵਾਰ (double-edged sword) ਬਣੀ ਰਹੇਗੀ, ਜੋ ਹਮਲਾਵਰਾਂ ਅਤੇ ਰੱਖਿਆਤਮਕਾਂ ਦੋਵਾਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰੇਗੀ। ਭਵਿੱਖ ਵਿੱਚ AI ਦੀ ਗਤੀ ਅਤੇ ਪੈਮਾਨੇ ਨੂੰ ਮਨੁੱਖੀ ਮਾਹਰਾਂ ਦੀ ਗੰਭੀਰ ਨਿਰਣਾ (critical judgment) ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਸਮਝ (contextual understanding) ਨਾਲ ਜੋੜਨ ਵਾਲੇ ਇੱਕ ਸਹਿਯੋਗੀ ਪਹੁੰਚ (synergistic approach) ਵਿੱਚ ਹੋ ਸਕਦਾ ਹੈ।