AI ਡਾਟਾ ਲੀਕ: ਭਾਰਤੀ ਕੰਪਨੀਆਂ ਲਈ ਵਧਦਾ ਅਣਦੇਖਿਆ ਖਤਰਾ
ਭਾਰਤੀ ਕੰਪਨੀਆਂ 2026 ਤੱਕ ਸੂਚਨਾ ਸੁਰੱਖਿਆ (Information Security) 'ਤੇ $3.4 ਬਿਲੀਅਨ ਦਾ ਨਿਵੇਸ਼ ਕਰਨ ਦੀ ਤਿਆਰੀ ਵਿੱਚ ਹਨ, ਜੋ ਕਿ AI ਖਤਰਿਆਂ ਅਤੇ ਨਿਯਮਾਂ ਕਾਰਨ 11.7% ਦਾ ਵਾਧਾ ਦਰਸਾਉਂਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹ ਖਰਚੇ ਫਾਇਰਵਾਲ ਅਤੇ ਘੁਸਪੈਠ ਖੋਜ (Intrusion Detection) ਵਰਗੇ ਬਾਹਰੀ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ 'ਤੇ ਕੇਂਦ੍ਰਿਤ ਹਨ, ਜਦੋਂ ਕਿ ਇੱਕ ਵੱਡਾ ਅੰਦਰੂਨੀ ਖਤਰਾ ਅਣਦੇਖਿਆ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ: ਕਰਮਚਾਰੀ ਅਣਜਾਣੇ ਵਿੱਚ ਪਬਲਿਕ AI ਟੂਲਜ਼ ਰਾਹੀਂ ਸੰਵੇਦਨਸ਼ੀਲ ਡਾਟਾ ਅਤੇ ਬੌਧਿਕ ਸੰਪਤੀ (Intellectual Property - IP) ਲੀਕ ਕਰ ਰਹੇ ਹਨ। ਇਸ "ਸ਼ੈਡੋ ਡਾਟਾ ਟ੍ਰਾਂਸਫਰ" (Shadow Data Transfer) ਕਾਰਨ ਕੰਪਨੀਆਂ ਭਾਰਤ ਦੇ ਡਿਜੀਟਲ ਪਰਸਨਲ ਡਾਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ ਐਕਟ, 2023 (DPDPA) ਦੇ ਤਹਿਤ ਤੁਰੰਤ ਰੈਗੂਲੇਟਰੀ ਕਾਰਵਾਈ ਦਾ ਸਾਹਮਣਾ ਕਰ ਸਕਦੀਆਂ ਹਨ। ਰੈਨਸਮਵੇਅਰ ਦੇ ਉਲਟ, ਇਹ ਅੰਦਰੂਨੀ ਲੀਕ ਅਕਸਰ ਅਦਿੱਖ ਹੁੰਦਾ ਹੈ ਪਰ ਇਸ ਦੇ ਗੰਭੀਰ ਰੈਗੂਲੇਟਰੀ ਅਤੇ IP ਨਤੀਜੇ ਹੋ ਸਕਦੇ ਹਨ।
DPDPA ਜੁਰਮਾਨੇ ਅਤੇ IP ਨੁਕਸਾਨ ਦਾ ਵੱਡਾ ਖਤਰਾ
ਡਿਜੀਟਲ ਪਰਸਨਲ ਡਾਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ ਐਕਟ, 2023 (DPDPA) ਕੰਪਨੀਆਂ ਨੂੰ ਪਰਸਨਲ ਡਾਟਾ ਦੇ ਉਲੰਘਣ ਨੂੰ ਰੋਕਣ ਲਈ ਵਾਜਿਬ ਸੁਰੱਖਿਆ ਉਪਾਅ (Reasonable Security Measures) ਲਾਗੂ ਕਰਨ ਦੀ ਲੋੜ ਪਾਉਂਦਾ ਹੈ। ਅਜਿਹਾ ਨਾ ਕਰਨ 'ਤੇ ₹250 ਕਰੋੜ ਤੱਕ ਦੇ ਜੁਰਮਾਨੇ ਹੋ ਸਕਦੇ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਕੰਪਨੀਆਂ ਨੂੰ ਕਿਸੇ ਵੀ ਉਲੰਘਣ ਦੀ ਸੂਚਨਾ ਤੁਰੰਤ ਡਾਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ ਬੋਰਡ ਆਫ਼ ਇੰਡੀਆ ਅਤੇ ਪ੍ਰਭਾਵਿਤ ਵਿਅਕਤੀਆਂ ਨੂੰ ਦੇਣੀ ਪੈਂਦੀ ਹੈ, ਜਿਸ ਦੀ ਪਾਲਣਾ ਨਾ ਕਰਨ 'ਤੇ ₹200 ਕਰੋੜ ਤੱਕ ਦੇ ਜੁਰਮਾਨੇ ਲੱਗ ਸਕਦੇ ਹਨ। ਜਦੋਂ ਕਰਮਚਾਰੀ ਸੰਵੇਦਨਸ਼ੀਲ ਜਾਣਕਾਰੀ ਨੂੰ ਪਬਲਿਕ AI ਟੂਲਜ਼ ਵਿੱਚ ਪੇਸਟ ਕਰਦੇ ਹਨ, ਤਾਂ ਇਹ ਡਾਟਾ ਕੰਪਨੀ ਦੇ ਕੰਟਰੋਲ ਤੋਂ ਬਾਹਰ ਹੋ ਜਾਂਦਾ ਹੈ, ਜੋ ਕਿ ਇਹਨਾਂ ਪ੍ਰਾਵਧਾਨਾਂ ਦੀ ਸਿੱਧੀ ਉਲੰਘਣਾ ਹੈ। ਜੁਰਮਾਨਿਆਂ ਤੋਂ ਇਲਾਵਾ, ਮਲਕੀਅਤ ਵਾਲੇ ਐਲਗੋਰਿਦਮ ਅਤੇ ਵਪਾਰਕ ਗੁਪਤ (Trade Secrets) ਵਰਗੀ ਬੌਧਿਕ ਸੰਪਤੀ (IP) ਨੂੰ ਸਥਾਈ ਤੌਰ 'ਤੇ ਨੁਕਸਾਨ ਪਹੁੰਚ ਸਕਦਾ ਹੈ, ਅਤੇ ਇਹ ਸੰਭਵ ਹੈ ਕਿ ਇਹ ਜਾਣਕਾਰੀ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਲਈ ਉਪਲਬਧ ਹੋ ਜਾਵੇ। ਪ੍ਰੋਫੈਸ਼ਨਲ ਸਰਵਿਸਿਜ਼ ਫਰਮਾਂ ਵੀ ਅਜਿਹੇ ਖੁਲਾਸਿਆਂ ਰਾਹੀਂ ਗਾਹਕ ਦੀ ਗੁਪਤਤਾ ਸਮਝੌਤਿਆਂ (Client Confidentiality Agreements) ਦੀ ਉਲੰਘਣਾ ਦਾ ਗੰਭੀਰ ਖਤਰਾ ਮਹਿਸੂਸ ਕਰਦੀਆਂ ਹਨ।
ਰਵਾਇਤੀ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ AI ਲੀਕ ਦੇ ਸਾਹਮਣੇ ਕਿਉਂ ਫੇਲ੍ਹ ਹੋ ਰਹੀਆਂ ਹਨ?
ਭਾਰਤ ਐਂਟਰਪ੍ਰਾਈਜ਼ AI ਟ੍ਰੈਫਿਕ ਦਾ ਇੱਕ ਪ੍ਰਮੁੱਖ ਹੱਬ ਹੈ, ਜਿੱਥੇ AI/ML ਟ੍ਰਾਂਜੈਕਸ਼ਨਾਂ ਵਿੱਚ ਸਾਲ-ਦਰ-ਸਾਲ ਹੈਰਾਨਕੁਨ 309.9% ਦਾ ਵਾਧਾ ਹੋਇਆ ਹੈ। ਰਿਪੋਰਟਾਂ ਦਰਸਾਉਂਦੀਆਂ ਹਨ ਕਿ ChatGPT ਵਰਗੇ ਪਬਲਿਕ ਟੂਲਜ਼ ਪਹਿਲਾਂ ਹੀ ਡਾਟਾ ਲਾਸ ਪ੍ਰੀਵੈਂਸ਼ਨ (DLP) ਦੇ ਲੱਖਾਂ ਉਲੰਘਣਾਂ ਦਾ ਕਾਰਨ ਬਣ ਚੁੱਕੇ ਹਨ, ਅਤੇ ਕੋਡਿੰਗ ਅਸਿਸਟੈਂਟ (Coding Assistants) ਡਾਟਾ ਲੀਕੇਜ ਦੀਆਂ ਘਟਨਾਵਾਂ ਵਿੱਚ ਵੱਧ ਤੋਂ ਵੱਧ ਸ਼ਾਮਲ ਹੋ ਰਹੇ ਹਨ। ਈਮੇਲਾਂ ਅਤੇ USB ਡਰਾਈਵਾਂ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਰਵਾਇਤੀ ਡਾਟਾ ਲਾਸ ਪ੍ਰੀਵੈਂਸ਼ਨ (DLP) ਟੂਲਜ਼, ਵੈੱਬ ਬ੍ਰਾਊਜ਼ਰ ਰਾਹੀਂ ਐਕਸੈਸ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਵਕਾਰੀ AI ਚੈਟਬਾਟਸ ਅਤੇ LLMs (Large Language Models) ਦੀ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਲੈਸ ਨਹੀਂ ਹਨ। ਹਾਲਾਂਕਿ ਜ਼ਿਆਦਾਤਰ ਉਪਭੋਗਤਾ ( 79% ) ਐਂਟਰਪ੍ਰਾਈਜ਼-ਅਨੁਮੋਦਿਤ AI ਟੂਲਜ਼ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੇ ਹਨ, ਪਰ 15% ਅਜੇ ਵੀ ਨਿੱਜੀ ਅਤੇ ਕੰਮ ਦੇ ਖਾਤਿਆਂ ਵਿਚਕਾਰ ਸਵਿੱਚ ਕਰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਲਗਾਤਾਰ ਲੀਕੇਜ ਪੁਆਇੰਟ ਬਣਦੇ ਹਨ। ਸਟਾਰਟਅੱਪਸ ਅਤੇ ਛੋਟੀਆਂ ਤੋਂ ਦਰਮਿਆਨੀਆਂ ਕੰਪਨੀਆਂ (SMEs), ਜੋ ਅਕਸਰ ਤੇਜ਼ ਉਤਪਾਦਕਤਾ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੀਆਂ ਹਨ, ਖਾਸ ਤੌਰ 'ਤੇ ਕਮਜ਼ੋਰ ਹਨ। ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਲਈ, ਇਸ ਵਿਵਹਾਰ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰਮਚਾਰੀਆਂ ਦਾ ਇੱਕ ਛੋਟਾ ਜਿਹਾ ਪ੍ਰਤੀਸ਼ਤ ਵੀ ਕਾਫ਼ੀ ਡਾਟਾ ਨਿਕਾਸੀ (Data Exfiltration) ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ।
ਲੁਕਿਆ ਹੋਇਆ ਖਤਰਾ: AI ਮਾਡਲਾਂ ਵਿੱਚ ਏਕੀਕ੍ਰਿਤ ਡਾਟਾ
ਸਭ ਤੋਂ ਚਿੰਤਾਜਨਕ ਪਹਿਲੂ ਇਹ ਹੈ ਕਿ ਕਰਮਚਾਰੀਆਂ ਦੁਆਰਾ AI ਦੀ ਇਹ ਵਰਤੋਂ ਲਗਭਗ ਅਣਦੇਖੀ ਰਹਿੰਦੀ ਹੈ। ਪਬਲਿਕ AI ਮਾਡਲਾਂ ਵਿੱਚ ਅਪਲੋਡ ਕੀਤਾ ਗਿਆ ਡਾਟਾ ਲਗਭਗ ਅਪ੍ਰਾਪਤ ਹੈ, ਜੋ ਪ੍ਰਦਾਤਾ ਦੇ ਐਲਗੋਰਿਦਮ ਵਿੱਚ, ਅਕਸਰ ਸਿਖਲਾਈ (Training) ਲਈ, ਏਕੀਕ੍ਰਿਤ ਹੋ ਜਾਂਦਾ ਹੈ। ਇਹ ਬੌਧਿਕ ਸੰਪਤੀ (IP) ਲਈ ਇੱਕ ਗੰਭੀਰ ਖਤਰਾ ਪੇਸ਼ ਕਰਦਾ ਹੈ। 2021 ਵਿੱਚ ਏਅਰ ਇੰਡੀਆ ਜਾਂ 2022 ਵਿੱਚ ਭਾਰਤਪੇ (BharatPe) ਵਰਗੀਆਂ ਪਿਛਲੀਆਂ ਬਰੀਚਾਂ ਵਿੱਚ ਡਾਟਾ ਚੋਰੀ ਦੇ ਉਲਟ, ਇਹ ਡਾਟਾ ਇੱਛਾ ਨਾਲ, ਭਾਵੇਂ ਅਣਜਾਣੇ ਵਿੱਚ, ਸਾਂਝਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਤੀਜੀ-ਧਿਰ ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦਾ ਹੈ। DPDPA ਦੀ ਜੁਰਮਾਨਾ ਢਾਂਚਾ ਸੁਰੱਖਿਆ ਅਸਫਲਤਾਵਾਂ ਲਈ ₹250 ਕਰੋੜ ਅਤੇ ਸੂਚਨਾ ਦੇਣ ਵਿੱਚ ਲਾਪਰਵਾਹੀ ਲਈ ₹200 ਕਰੋੜ ਤੱਕ ਦੇ ਜੁਰਮਾਨੇ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ, ਜਿਸਨੂੰ ਸੰਭਾਵੀ ਤੌਰ 'ਤੇ ਪ੍ਰਤੀ ਲੀਕੇਜ ਘਟਨਾ ਲਾਗੂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਦੇਣਦਾਰੀਆਂ (Liabilities) ਅਸੀਮਤ ਹੋ ਜਾਂਦੀਆਂ ਹਨ। "ਵਾਜਿਬ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ" (Reasonable Security Safeguards) ਨੂੰ ਸਾਬਤ ਕਰਨਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ ਜਦੋਂ ਖਤਰਾ ਇੱਕ ਵਕਾਰੀ ਹਮਲੇ ਦੀ ਬਜਾਏ ਰੋਜ਼ਾਨਾ ਕਰਮਚਾਰੀ ਦੀ ਗਤੀਵਿਧੀ ਤੋਂ ਆਉਂਦਾ ਹੈ। ਬਹੁਤ ਸਾਰੀਆਂ ਸੰਸਥਾਵਾਂ ਸੰਭਵ ਤੌਰ 'ਤੇ AI ਮਾਡਲ ਵਰਤੋਂ ਦੀ ਸਪੱਸ਼ਟ ਵਸਤੂ-ਸੂਚੀ (Inventory) ਦੀ ਘਾਟ ਕਾਰਨ ਆਪਣੇ ਐਕਸਪੋਜ਼ਰ ਦੀ ਹੱਦ ਨੂੰ ਨਹੀਂ ਜਾਣਦੀਆਂ।
AI ਡਾਟਾ ਲੀਕ ਤੋਂ ਸੁਰੱਖਿਆ ਲਈ ਕਦਮ
ਇਸ ਕਮਜ਼ੋਰੀ ਨੂੰ ਦੂਰ ਕਰਨ ਲਈ ਤਕਨੀਕੀ ਨਿਯੰਤਰਣ (Technical Controls) ਅਤੇ ਸੱਭਿਆਚਾਰਕ ਬਦਲਾਅ (Cultural Change) ਦੇ ਸੁਮੇਲ ਦੀ ਲੋੜ ਹੈ। AI ਖੁਦ ਦੁਰਵਰਤੋਂ ਨਾਲ ਲੜਨ ਲਈ ਇੱਕ ਸਾਧਨ ਬਣ ਰਿਹਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਸਖ਼ਤ ਡਾਟਾ ਹੈਂਡਲਿੰਗ ਵਾਲੇ ਐਂਟਰਪ੍ਰਾਈਜ਼-ਗ੍ਰੇਡ ਪਲੇਟਫਾਰਮ, ਸੰਵੇਦਨਸ਼ੀਲ ਡਾਟਾ ਨੂੰ ਬਲੌਕ ਕਰਨ ਵਾਲੇ ਬ੍ਰਾਊਜ਼ਰ ਐਕਸਟੈਂਸ਼ਨ, ਅਤੇ AI ਟ੍ਰੈਫਿਕ ਦੀ ਨੈੱਟਵਰਕ ਨਿਗਰਾਨੀ ਸ਼ਾਮਲ ਹੈ। ਕਰਮਚਾਰੀਆਂ ਨੂੰ ਖਾਸ ਖਤਰਿਆਂ ਬਾਰੇ ਸਿੱਖਿਆ ਦੇਣਾ, ਪ੍ਰਵਾਨਿਤ AI ਬਦਲ ਪ੍ਰਦਾਨ ਕਰਨਾ, ਅਤੇ ਨਵੀਆਂ ਸਥਿਤੀਆਂ ਲਈ ਸਪੱਸ਼ਟ ਪ੍ਰਕਿਰਿਆਵਾਂ ਸਥਾਪਤ ਕਰਨਾ ਵੀ ਓਨਾ ਹੀ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਸੰਸਥਾਵਾਂ ਨੂੰ ਅੰਦਰੂਨੀ ਪ੍ਰਣਾਲੀਆਂ ਦਾ ਆਡਿਟ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਅਜਿਹੇ ਤਿਆਰ ਕੀਤੇ ਗਏ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਬਣਾਉਣੇ ਚਾਹੀਦੇ ਹਨ ਜੋ ਉਤਪਾਦਕਤਾ ਨੂੰ ਜ਼ਰੂਰੀ ਸੁਰੱਖਿਆ ਅਤੇ ਪਾਲਣਾ (Compliance) ਨਾਲ ਸੰਤੁਲਿਤ ਕਰਦੇ ਹੋਣ। ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਨਿਵੇਸ਼ਾਂ ਦਾ ਸਫਲਤਾਪੂਰਵਕ ਪ੍ਰਬੰਧਨ ਹੁਣ ਇਸ ਅੰਦਰੂਨੀ AI ਡਾਟਾ ਲੀਕੇਜ ਬਲਾਈਂਡ ਸਪਾਟ ਨੂੰ ਬੰਦ ਕਰਨ 'ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ।