AI का 'अंधा' डर: भारतीय कंपनियाँ चूक रहीं $3.4 अरब का डेटा लीक रिस्क, ₹250 करोड़ तक का जुर्माना!

TECH
Whalesbook Logo
AuthorAditi Chauhan|Published at:
AI का 'अंधा' डर: भारतीय कंपनियाँ चूक रहीं $3.4 अरब का डेटा लीक रिस्क, ₹250 करोड़ तक का जुर्माना!
Overview

भारतीय कंपनियाँ साइबर सुरक्षा पर भारी निवेश कर रही हैं, लेकिन एक बड़े 'अंधे धब्बे' (blind spot) को नजरअंदाज कर रही हैं। कर्मचारियों द्वारा पब्लिक AI टूल्स के इस्तेमाल से संवेदनशील डेटा और IP लीक होने का खतरा बढ़ गया है। यह 'शैडो डेटा ट्रांसफर' कंपनियों को डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDPA) के तहत ₹250 करोड़ तक के भारी जुर्माने का सामना करवा सकता है।

Instant Stock Alerts on WhatsApp

Used by 10,000+ active investors

1

Add Stocks

Select the stocks you want to track in real time.

2

Get Alerts on WhatsApp

Receive instant updates directly to WhatsApp.

  • Quarterly Results
  • Concall Announcements
  • New Orders & Big Deals
  • Capex Announcements
  • Bulk Deals
  • And much more

AI डेटा लीक्स: भारतीय कंपनियों के लिए बढ़ता 'अंधा धब्बा'

भारतीय उद्यम 2026 तक सूचना सुरक्षा (information security) में $3.4 अरब खर्च करने की तैयारी में हैं, जो AI से जुड़े खतरों और नियमों के कारण 11.7% की बढ़ोतरी का संकेत है। लेकिन, जहाँ यह खर्च फायरवॉल और घुसपैठ डिटेक्शन जैसे बाहरी सुरक्षा उपायों पर हो रहा है, वहीं एक बड़ा अंदरूनी खतरा अनछुआ रह गया है। कर्मचारी अनजाने में ही संवेदनशील डेटा और अपनी कंपनियों की बौद्धिक संपदा (intellectual property) को पब्लिक AI टूल्स में डालकर लीक कर रहे हैं। यह 'शैडो डेटा ट्रांसफर' पारंपरिक सुरक्षा घेरों को चकमा दे रहा है और कंपनियों को सीधे तौर पर डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023 (DPDPA) के तहत कानूनी कार्रवाई के दायरे में ला रहा है। रैंसमवेयर हमलों के विपरीत, यह अंदरूनी रिसाव अक्सर अदृश्य होता है, लेकिन इसके नियामक और IP से जुड़े परिणाम गंभीर हो सकते हैं।

DPDPA के जुर्माने और IP का नुकसान मंडरा रहा है

डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023 (DPDPA) के तहत, कंपनियों को पर्सनल डेटा के उल्लंघनों को रोकने के लिए उचित सुरक्षा उपाय लागू करने होंगे। ऐसा न करने पर ₹250 करोड़ तक का जुर्माना लग सकता है। इसके अलावा, किसी भी उल्लंघन की सूचना डेटा प्रोटेक्शन बोर्ड ऑफ इंडिया और प्रभावित व्यक्तियों को तुरंत देनी होगी, जिसकी गैर-अनुपालन (non-compliance) पर ₹200 करोड़ तक के जुर्माने का प्रावधान है। जब कर्मचारी संवेदनशील जानकारी पब्लिक AI टूल्स में पेस्ट करते हैं, तो यह डेटा कंपनी के नियंत्रण से बाहर चला जाता है, जो सीधे तौर पर इन प्रावधानों का उल्लंघन है। सिर्फ जुर्माने ही नहीं, प्रॉपरिटरी एल्गोरिदम और व्यापार रहस्य (trade secrets) जैसी बौद्धिक संपदा भी स्थायी रूप से खतरे में पड़ सकती है और प्रतिस्पर्धियों के लिए उपलब्ध हो सकती है। प्रोफेशनल सर्विस फर्मों के लिए यह और भी बड़ा खतरा है, क्योंकि वे ऐसे खुलासों से क्लाइंट की गोपनीयता समझौतों का उल्लंघन कर सकती हैं।

पारंपरिक सुरक्षा उपाय AI लीक्स के सामने क्यों फेल हो जाते हैं?

भारत एंटरप्राइज AI ट्रैफिक का एक बड़ा हब है, जहाँ AI/ML ट्रांजैक्शन में 309.9% की जबरदस्त सालाना वृद्धि देखी जा रही है। रिपोर्ट्स बताती हैं कि ChatGPT जैसे पब्लिक टूल्स पहले ही लाखों डेटा लॉस प्रिवेंशन (DLP) उल्लंघनों का कारण बन चुके हैं, और कोडिंग असिस्टेंट भी डेटा लीक की घटनाओं में शामिल हो रहे हैं। ईमेल और USB ड्राइव के लिए बनाए गए पारंपरिक DLP टूल्स, वेब ब्राउज़र के ज़रिए एक्सेस किए जाने वाले एडवांस्ड AI चैटबॉट्स और LLMs की निगरानी करने में सक्षम नहीं हैं। भले ही 79% यूज़र्स एंटरप्राइज-अप्रूव्ड AI टूल्स को प्राथमिकता देते हैं, लेकिन 15% अभी भी पर्सनल और वर्क अकाउंट के बीच स्विच करते हैं, जो लीकेज के रास्ते खोलता है। स्टार्ट-अप्स और छोटे से मध्यम आकार के बिज़नेस (SMEs), जो अक्सर तेजी से प्रोडक्टिविटी बढ़ाना चाहते हैं, इस खतरे के प्रति विशेष रूप से संवेदनशील हैं।

छिपा हुआ ख़तरा: AI मॉडल में एम्बेडेड डेटा

सबसे चिंताजनक बात यह है कि कर्मचारी AI का यह इस्तेमाल काफी हद तक अदृश्य रूप से होता है। पब्लिक AI मॉडल में अपलोड किया गया डेटा लगभग अप्राप्य (unrecoverable) होता है, और यह प्रोवाइडर के एल्गोरिदम में समा जाता है, जिसका इस्तेमाल अक्सर ट्रेनिंग के लिए होता है। यह बौद्धिक संपदा के लिए एक गंभीर खतरा पैदा करता है। 2021 में एयर इंडिया या 2022 में भारतपे जैसे पिछले डेटा उल्लंघनों के विपरीत, यह डेटा स्वेच्छा से, हालांकि अनजाने में, साझा किया जाता है और थर्ड-पार्टी सिस्टम में एकीकृत हो जाता है। DPDPA के पेनल्टी स्ट्रक्चर के तहत, सुरक्षा विफलताओं के लिए ₹250 करोड़ और नोटिफिकेशन की चूक के लिए ₹200 करोड़ तक का जुर्माना लगाया जा सकता है, जो प्रति लीकेज इंस्टेंस लागू हो सकता है, जिससे देनदारियां असीमित हो जाती हैं। यह साबित करना बेहद मुश्किल है कि 'उचित सुरक्षा उपाय' मौजूद थे, खासकर जब खतरा किसी परिष्कृत हमले के बजाय नियमित कर्मचारी गतिविधि से आता है। स्पष्ट AI मॉडल उपयोग की सूची (inventory) की कमी के कारण कई संगठन अपने जोखिम की सीमा को भी नहीं जानते होंगे।

AI डेटा लीक्स से बचाव के उपाय

इस भेद्यता (vulnerability) को दूर करने के लिए तकनीकी नियंत्रण और सांस्कृतिक परिवर्तन के मिले-जुले दृष्टिकोण की आवश्यकता है। AI खुद सख्त डेटा हैंडलिंग के साथ एंटरप्राइज-ग्रेड प्लेटफॉर्म, संवेदनशील डेटा को ब्लॉक करने वाले ब्राउज़र एक्सटेंशन और AI ट्रैफिक की नेटवर्क मॉनिटरिंग के माध्यम से दुरुपयोग से निपटने का एक टूल बन रहा है। कर्मचारियों को विशिष्ट जोखिमों के बारे में शिक्षित करना, अनुमोदित AI विकल्प प्रदान करना और नई स्थितियों के लिए स्पष्ट प्रक्रियाएं स्थापित करना समान रूप से महत्वपूर्ण है। संगठनों को आंतरिक प्रणालियों का ऑडिट करना चाहिए और उत्पादकता तथा आवश्यक सुरक्षा व अनुपालन को संतुलित करने वाले अनुकूलित दिशानिर्देश बनाने चाहिए। साइबर सुरक्षा निवेश का सफलतापूर्वक प्रबंधन अब इस अंदरूनी AI डेटा लीकेज के 'अंधे धब्बे' को बंद करने पर निर्भर करता है।

Get stock alerts instantly on WhatsApp

Quarterly results, bulk deals, concall updates and major announcements delivered in real time.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.