AI का स्याह पक्ष: 10 में से 7 महिला रक्षक ऑनलाइन हमलों का सामना कर रही हैं, वास्तविक दुनिया के खतरे बढ़े!

WORLD-AFFAIRS
Whalesbook Logo
AuthorAditi Chauhan|Published at:
AI का स्याह पक्ष: 10 में से 7 महिला रक्षक ऑनलाइन हमलों का सामना कर रही हैं, वास्तविक दुनिया के खतरे बढ़े!
Overview

संयुक्त राष्ट्र (UN) के एक अध्ययन से पता चलता है कि दस में से सात महिला मानवाधिकार रक्षक, कार्यकर्ता और पत्रकार अपने काम से जुड़े ऑनलाइन हिंसा का शिकार हुई हैं। यूएन वीमेन (UN Women) और यूरोपीय आयोग (European Commission) द्वारा जारी रिपोर्ट में चेतावनी दी गई है कि यह डिजिटल दुर्व्यवहार तेजी से वास्तविक दुनिया के हमलों को बढ़ावा दे रहा है, जिसमें डीपफेक (deepfake) जैसे AI-सहायता प्राप्त दुर्व्यवहार एक महत्वपूर्ण खतरा हैं। यह एक खतरनाक वृद्धि है, खासकर महिला पत्रकारों के लिए, जिससे कड़े कानूनों और टेक जवाबदेही की मांग तेज हो गई है।

UN रिपोर्ट: महिला रक्षकों के खिलाफ ऑनलाइन हिंसा खतरनाक मोड़ पर

यूएन वीमेन (UN Women) और यूरोपीय आयोग (European Commission) द्वारा जारी एक व्यापक संयुक्त राष्ट्र अध्ययन एक गंभीर मुद्दे पर प्रकाश डालता है: दस में से सात महिला मानवाधिकार रक्षक, कार्यकर्ता और पत्रकार अपने पेशेवर गतिविधियों से सीधे जुड़ी ऑनलाइन हिंसा का अनुभव कर चुकी हैं। रिपोर्ट एक खतरनाक प्रवृत्ति को रेखांकित करती है जहाँ डिजिटल दुर्व्यवहार वास्तविक दुनिया को नुकसान पहुँचाने की ओर बढ़ रहा है।

मुख्य निष्कर्ष (Key Findings)

  • मानवाधिकार, सक्रियता और पत्रकारिता के क्षेत्र में काम करने वाली 70% महिलाओं को ऑनलाइन हिंसा का सामना करना पड़ा है।
  • यह डिजिटल दुर्व्यवहार तेजी से ऑफलाइन नुकसान से जुड़ रहा है, जिसमें सर्वेक्षण में शामिल दस में से चार प्रतिभागियों ने ऐसे परिणाम बताए हैं।
  • इस अध्ययन में 119 देशों के 6,400 से अधिक व्यक्तियों का सर्वेक्षण किया गया।
  • महिला पत्रकारों और मीडिया कर्मियों को विशेष रूप से कमजोर पाया गया है।

AI-सहायता प्राप्त दुर्व्यवहार में खतरनाक वृद्धि


  • लगभग हर चार में से एक महिला उत्तरदाता ने AI-सहायता प्राप्त ऑनलाइन हिंसा का अनुभव करने की सूचना दी, जिसमें डीपफेक इमेजरी (deepfake imagery) और हेरफेर की गई सामग्री (manipulated content) शामिल है।

  • मानवाधिकार मुद्दों पर ध्यान केंद्रित करने वाले लेखकों और सार्वजनिक संचारकों ने 30% के साथ सबसे अधिक जोखिम की सूचना दी।

  • शोधकर्ता चेतावनी देते हैं कि आसानी से उपलब्ध जनरेटिव AI उपकरण (generative AI tools) वास्तविक, अपमानजनक सामग्री के निर्माण और व्यापक वितरण को सरल बनाते हैं।

महिला पत्रकारों के लिए स्थिति बदतर


  • ऑफलाइन हमलों को ऑनलाइन दुर्व्यवहार से जोड़ने वाली महिला पत्रकारों का अनुपात दोगुना से अधिक हो गया है, जो पिछले तुलनीय अध्ययन में 20% से बढ़कर नए 2025 सर्वेक्षण में 42% हो गया है।

  • शोधकर्ताओं ने इस नाटकीय वृद्धि को "खतरनाक और संभावित रूप से जानलेवा" बताया है।

प्रौद्योगिकी-सुविधाजनक हिंसा की प्रकृति


  • रिपोर्ट में प्रौद्योगिकी-सुविधाजनक हिंसा (technology-facilitated violence) को दुर्व्यवहार, धमकी, निगरानी, डॉक्सिंग (doxxing), छवि-आधारित नुकसान (image-based harm) और डिजिटल उपकरणों द्वारा बढ़ाए गए अन्य हमलों के रूप में परिभाषित किया गया है।

  • इस तरह की हिंसा का उपयोग अक्सर महिलाओं की सार्वजनिक जीवन में भागीदारी को दबाने, अभिव्यक्ति की स्वतंत्रता को प्रतिबंधित करने और लोकतांत्रिक बहस को रोकने के लिए किया जाता है।

कार्रवाई का आह्वान और भविष्य का दृष्टिकोण


  • यूएन वीमेन सरकारों से आग्रह कर रहा है कि वे ऐसे मजबूत कानून बनाएं जो प्रौद्योगिकी-सुविधाजनक हिंसा को मानवाधिकार उल्लंघन के रूप में पहचानें।

  • सामग्री मॉडरेशन (content moderation) और प्लेटफ़ॉर्म सुरक्षा (platform safety) के संबंध में टेक कंपनियों से अधिक जवाबदेही का भी आह्वान किया गया है।

  • यह रिपोर्ट चार-भागों की श्रृंखला का पहला भाग है जो इंटरसेक्शनल नुकसान (intersectional harms) और प्रतिक्रिया तंत्र (response mechanisms) की जांच करती है।

प्रभाव (Impact)


  • यह खबर एक गंभीर वैश्विक मानवाधिकार संकट को उजागर करती है, जो अभिव्यक्ति की स्वतंत्रता और कमजोर समूहों, विशेष रूप से सार्वजनिक भूमिकाओं में महिलाओं की सुरक्षा को प्रभावित करती है।

  • यह प्रौद्योगिकी प्लेटफार्मों की जिम्मेदारियों और दुनिया भर में विधायी कार्रवाई की आवश्यकता के बारे में महत्वपूर्ण प्रश्न उठाता है।

  • Impact Rating: 7

कठिन शब्दों की व्याख्या


  • प्रौद्योगिकी-सुविधाजनक हिंसा (Technology-facilitated violence): दुर्व्यवहार, धमकी, निगरानी, या नुकसान जो डिजिटल टूल और ऑनलाइन प्लेटफार्मों द्वारा सक्षम, बढ़ाया या आसान बनाया गया हो।

  • AI-सहायता प्राप्त ऑनलाइन हिंसा (AI-assisted online violence): ऑनलाइन दुर्व्यवहार जिसमें कृत्रिम बुद्धिमत्ता (artificial intelligence) का उपयोग करके हानिकारक सामग्री, जैसे कि यथार्थवादी नकली छवियां या हेरफेर किए गए वीडियो, बनाना या बढ़ाना शामिल है।

  • डीपफेक इमेजरी (Deepfake imagery): AI का उपयोग करके बनाई गई अत्यधिक यथार्थवादी नकली छवियां या वीडियो, जिनका उपयोग अक्सर किसी का प्रतिरूपण करने या उन्हें झूठी परिस्थितियों में डालने के लिए किया जाता है।

  • डॉक्सिंग (Doxxing): किसी व्यक्ति या संगठन के बारे में निजी व्यक्तिगत जानकारी को सार्वजनिक रूप से प्रकट करने का कार्य, आमतौर पर दुर्भावनापूर्ण इरादे से।

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.