भारत के डेटा प्राइवेसी कानून में खामियां: क्या नए नियमों के बीच आपके कार्यस्थल के अधिकार खतरे में हैं?

Tech|
Logo
AuthorAditi Chauhan | Whalesbook News Team

Overview

भारत ने डेटा को नियंत्रित करने के लिए डिजिटल व्यक्तिगत डेटा संरक्षण नियम, 2025 अधिसूचित किए हैं, लेकिन महत्वपूर्ण रूप से श्रमिक-विशिष्ट सुरक्षा प्रदान करने में विफल रहे हैं। बायोमेट्रिक्स और एआई ट्रैकिंग जैसी व्यापक कार्यस्थल निगरानी तकनीकों के बावजूद, ये नियम नियोक्ताओं को स्पष्ट सहमति के बिना व्यापक डेटा प्रसंस्करण की अनुमति देते हैं। यह श्रमिकों को कमजोर छोड़ देता है, उन्हें अपने डेटा तक पहुंच और एल्गोरिथम निर्णयों के खिलाफ निवारण से वंचित करता है, जो भारतीय कार्यबल के लिए डेटा शासन में एक महत्वपूर्ण अंतर है।

भारत सरकार ने 13 नवंबर को डिजिटल व्यक्तिगत डेटा संरक्षण नियम, 2025 (G.S.R. 846(E) द्वारा) अधिसूचित किए हैं। ये नियम, डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 के साथ मिलकर, एक मजबूत डेटा शासन व्यवस्था स्थापित करने का लक्ष्य रखते हैं। ये सहमति नोटिस, डेटा फिड्यूशरी कर्तव्यों, सुरक्षा प्रथाओं, शिकायत समय-सीमाओं और महत्वपूर्ण डेटा फिड्यूशरी के पदनाम के लिए मानक निर्धारित करते हैं। जबकि यह भारत की डिजिटल अर्थव्यवस्था के लिए महत्वपूर्ण प्रगति का प्रतीक है, ये नियम श्रमिक-विशिष्ट सुरक्षा के संबंध में एक गहरी छूटी हुई अवसर का प्रतिनिधित्व करते हैं। व्हाइट-कॉलर, ब्लू-कॉलर और प्लेटफॉर्म क्षेत्रों में, भारतीय नियोक्ता अपने कार्यबल की निगरानी के लिए प्रौद्योगिकी का तेजी से उपयोग कर रहे हैं। इनमें फिंगरप्रिंट, आईरिस और चेहरे की पहचान जैसे बायोमेट्रिक उपस्थिति सिस्टम शामिल हैं। नियोक्ता जीपीएस-आधारित स्थान और मार्ग ट्रैकिंग, कीस्ट्रोक और स्क्रीन-टाइम लॉगर, और स्वचालित रिज्यूमे फ़िल्टर का भी उपयोग करते हैं। हायरिंग एल्गोरिदम और एआई-संचालित शिफ्ट आवंटन, रेटिंग सिस्टम और प्रोत्साहन अनुकूलन भी आम हो रहे हैं। ये सिस्टम सीधे तौर पर श्रमिकों के घंटों, कमाई, मूल्यांकन और समग्र आजीविका सुरक्षा को प्रभावित करते हैं। "रोजगार उद्देश्यों" की व्यापक व्याख्या एक बड़ी चिंता है। DPDP अधिनियम की धारा 7(i) नियोक्ताओं को रोजगार-संबंधित कारणों से या हानि से बचाने के लिए स्पष्ट सहमति के बिना श्रमिक डेटा संसाधित करने की अनुमति देती है। नए नियम इस वाक्यांश को परिभाषित या संकीर्ण नहीं करते हैं, जिससे "फंक्शन-क्रीप" (function-creep) का जोखिम पैदा होता है जहाँ नियमित संचालन के लिए एकत्र किए गए डेटा का उपयोग निगरानी या अनुशासनात्मक नियंत्रण के लिए किया जा सकता है। EPFO/UAN डेटा का दोहरे-रोजगार की जांच के लिए उपयोग इसका एक स्पष्ट उदाहरण है। इसके अलावा, श्रमिक पहुंच और सुधार अधिकार भारी रूप से प्रतिबंधित हैं। अधिनियम की धारा 11-12 के तहत, एक श्रमिक केवल तभी अपने डेटा तक पहुंच या सुधार कर सकता है जब उसने पहले सहमति दी हो। हालांकि, अधिकांश कार्यस्थल डेटा प्रसंस्करण धारा 7(i) के गैर-सहमति खंड के तहत होता है। यह प्रभावी रूप से श्रमिकों को उनकी उत्पादकता मेट्रिक्स तक पहुंच, एल्गोरिथम प्रोफाइल का निरीक्षण या सुधार करने की क्षमता, या अनुशासनात्मक कार्रवाइयों में उपयोग किए जाने वाले लॉग की समीक्षा करने से वंचित करता है। स्वचालित निर्णयों के लिए कोई सुरक्षा उपाय नहीं हैं। DPDP अधिनियम या इसके साथ आए नियमों में स्वचालित निर्णय लेने के लिए आवश्यक सुरक्षा उपाय प्रदान नहीं किए गए हैं। एल्गोरिथम परिणामों की व्याख्या के लिए कोई अधिकार नहीं है, इन निर्णयों के पीछे के तर्क के बारे में सार्थक जानकारी की कोई आवश्यकता नहीं है, मानव समीक्षा का कोई प्रावधान नहीं है, और एल्गोरिथम निर्णयों के खिलाफ कोई स्पष्ट अपील प्रक्रिया नहीं है। एल्गोरिदम का एकमात्र उल्लेख नियम 13(3) में दिखाई देता है, जो केवल महत्वपूर्ण डेटा फिड्यूशरी पर लागू होता है, जिससे भर्ती, वेतन, शेड्यूलिंग और प्रदर्शन प्रबंधन में अधिकांश नियोक्ताओं के स्वचालित निर्णय काफी हद तक अनियंत्रित रह जाते हैं। विशेष रूप से, DPDP ढांचे में "संवेदनशील व्यक्तिगत डेटा" की कोई विशिष्ट श्रेणी नहीं है। बायोमेट्रिक पहचानकर्ता, जो अंतरंग प्रकृति के होते हैं और कार्यस्थलों में व्यापक रूप से उपयोग किए जाते हैं, उन्हें कोई बढ़ी हुई सुरक्षा नहीं मिलती है। यह वैश्विक मानकों के विपरीत है। डेटा सुरक्षा अधिकार और शिकायत प्रक्रियाएं सभी व्यक्तिगत हैं। जबकि नियम 14 पावती और समाधान के लिए समय-सीमा निर्धारित करता है, यह एक सामूहिक शिकायत तंत्र को शामिल करने में विफल रहता है। यह यूनियनों या श्रमिक संघों को कोईStanding नहीं देता है और निगरानी प्रौद्योगिकियों को तैनात करने से पहले नियोक्ताओं को श्रमिकों से परामर्श करने के लिए अनिवार्य नहीं करता है। यह एक ऐसे युग में एक महत्वपूर्ण चूक है जहां ऐसी प्रणालियाँ अक्सर पूरे कार्यबल को प्रभावित करती हैं। यूरोपीय संघ के GDPR, जो बायोमेट्रिक्स को विशेष श्रेणी के डेटा के रूप में मानता है और पूरी तरह से स्वचालित निर्णयों से बचाता है, या EU AI Act, जो रोजगार AI को उच्च जोखिम वाला नामित करता है, की तुलना में, भारत का DPDP ढांचा इन विशिष्ट कार्यस्थल जोखिमों पर आश्चर्यजनक रूप से मौन है। कैलिफोर्निया CPRA भी एक अलग संवेदनशील व्यक्तिगत जानकारी श्रेणी स्थापित करता है। आगे का रास्ता: प्रतिनिधि कानून, अभ्यास संहिता, या डेटा संरक्षण बोर्ड से मार्गदर्शन के माध्यम से हस्तक्षेप संभव हैं। इनमें "रोजगार उद्देश्यों" को परिभाषित करना और संकीर्ण करना, सभी श्रमिक डेटा तक पहुंच और सुधार अधिकारों का विस्तार करना, महत्वपूर्ण स्वचालित निर्णयों (तर्क पारदर्शिता और मानव समीक्षा सहित) के लिए सुरक्षा उपायों को अनिवार्य करना, बायोमेट्रिक्स के लिए एक संवेदनशील डेटा टियर बनाना और यूनियनों द्वारा सामूहिक शिकायतों को सक्षम करना शामिल हो सकता है। प्रभाव: ये नियम, डेटा शासन को आगे बढ़ाते हुए, भारतीय श्रमिकों को अनियंत्रित डिजिटल और एल्गोरिथम नुकसान के लिए खुला छोड़ देते हैं। वर्तमान ढांचा संवैधानिक गोपनीयता न्यायशास्त्र को पूरा करने में विफल रहता है जो गरिमा, स्वायत्तता और आनुपातिकता पर जोर देता है, खासकर रोजगार को प्रभावित करने वाले अपारदर्शी स्वचालित प्रणालियों के संबंध में। प्रतिनिधि कानून और नियामक मार्गदर्शन के माध्यम से और विकास के बिना, भारतीय कार्यस्थल डेटा युग में निष्पक्षता और निरीक्षण के वादे को पूरी तरह से पूरा नहीं कर सकते हैं।

No stocks found.