AI चे गडद वास्तव: 7 पैकी 10 महिला रक्षक ऑनलाइन हल्ल्यांना सामोरे जात आहेत, वास्तविक जगातील धोके वाढत आहेत!

WORLD-AFFAIRS
Whalesbook Logo
AuthorPriya Kulkarni|Published at:
AI चे गडद वास्तव: 7 पैकी 10 महिला रक्षक ऑनलाइन हल्ल्यांना सामोरे जात आहेत, वास्तविक जगातील धोके वाढत आहेत!
Overview

संयुक्त राष्ट्रांच्या (United Nations) एका अभ्यासानुसार, दहापैकी सात महिला मानवाधिकार रक्षक, कार्यकर्त्या आणि पत्रकार त्यांच्या कामामुळे ऑनलाइन हिंसाचाराला बळी पडल्या आहेत. यूएन वुमन (UN Women) आणि युरोपियन कमिशन (European Commission) यांनी प्रसिद्ध केलेल्या अहवालात, हा डिजिटल छळवणूक वास्तविक जगात हल्ल्यांना प्रोत्साहन देत असल्याचे आणि डीपफेक (deepfake) सारखे AI-सहाय्यित गैरवर्तन एक मोठा धोका असल्याचे म्हटले आहे. महिला पत्रकारांसाठी ही एक विशेषतः धोकादायक वाढ आहे, ज्यामुळे कडक कायदे आणि टेक कंपन्यांकडून अधिक जबाबदारीची (tech accountability) मागणी जोर धरत आहे.

UN अहवाल: महिला रक्षकांवरील ऑनलाइन हिंसाचार गंभीर टप्प्यावर

यूएन वुमन (UN Women) आणि युरोपियन कमिशन (European Commission) यांनी प्रसिद्ध केलेला संयुक्त राष्ट्रांचा एक सर्वसमावेशक अभ्यास एक गंभीर समस्या अधोरेखित करतो: दहापैकी सात महिला मानवाधिकार रक्षक, कार्यकर्त्या आणि पत्रकारांनी त्यांच्या व्यावसायिक कार्यांशी थेट संबंधित असलेल्या ऑनलाइन हिंसाचाराचा अनुभव घेतला आहे. हा अहवाल एक धोकादायक प्रवृत्ती दर्शवतो जिथे डिजिटल छळवणूक वास्तविक जगाला हानी पोहोचवत आहे.

मुख्य निष्कर्ष (Key Findings)

  • मानवाधिकार, सक्रियता आणि पत्रकारितेत काम करणाऱ्या 70% महिला ऑनलाइन हिंसाचाराला बळी पडल्या आहेत.
  • हा डिजिटल छळवणूक प्रत्यक्ष (offline) हानीशी अधिकाधिक जोडला जात आहे, ज्यात सर्वेक्षण केलेल्या दहापैकी चार सहभागींनी असे परिणाम नोंदवले आहेत.
  • या अभ्यासात 119 देशांमधील 6,400 पेक्षा जास्त व्यक्तींचे सर्वेक्षण करण्यात आले.
  • महिला पत्रकार आणि माध्यम कर्मचाऱ्यांना विशेषतः असुरक्षित (vulnerable) म्हणून ओळखले गेले आहे.

AI-सहाय्यित छळाचा धोकादायक वाढ


  • जवळपास चार महिला प्रतिवादींपैकी एकाने डीपफेक इमेज (deepfake imagery) आणि मॅनिप्युलेटेड कंटेंट (manipulated content) सह AI-सहाय्यित ऑनलाइन हिंसाचाराचा अनुभव घेतल्याचे सांगितले.

  • मानवाधिकार समस्यांवर लक्ष केंद्रित करणाऱ्या लेखक आणि सार्वजनिक संवादकांनी 30% सह सर्वाधिक धोका नोंदवला.

  • संशोधक सावध करतात की सहज उपलब्ध असलेले जनरेटिव्ह AI टूल्स (generative AI tools) वास्तविक, अपमानास्पद सामग्री तयार करणे आणि त्याचा मोठ्या प्रमाणावर प्रसार करणे सोपे करतात.

महिला पत्रकारांसाठी वाढता धोका


  • ऑफलाइन हल्ल्यांना ऑनलाइन छळवणुकीशी जोडणाऱ्या महिला पत्रकारांचे प्रमाण दुप्पट झाले आहे, जे मागील तुलनेने अभ्यासामध्ये 20% होते आणि नवीन 2025 सर्वेक्षणानुसार 42% पर्यंत वाढले आहे.

  • संशोधकांनी या नाट्यमय वाढीला "धोकादायक आणि संभाव्यतः जीवघेणी" म्हटले आहे.

तंत्रज्ञानाद्वारे सुलभ हिंसेचे स्वरूप


  • या अहवालात तंत्रज्ञानाद्वारे सुलभ हिंसा (technology-facilitated violence) म्हणजे डिजिटल साधनांद्वारे वाढवलेला छळ, धमक्या, पाळत ठेवणे, डॉक्सिंग (doxxing), प्रतिमा-आधारित नुकसान (image-based harm) आणि इतर हल्ले असे परिभाषित केले आहे.

  • अशा प्रकारची हिंसा महिलांचा सार्वजनिक जीवनातील सहभाग दडपण्यासाठी, अभिव्यक्ती स्वातंत्र्यावर मर्यादा घालण्यासाठी आणि लोकशाही चर्चेला आळा घालण्यासाठी वारंवार वापरली जाते.

कृतीची हाक आणि भविष्यातील दृष्टिकोन


  • UN वुमन सरकारांना तंत्रज्ञानाद्वारे सुलभ हिंसाचाराला मानवाधिकार उल्लंघन म्हणून ओळखणारे अधिक कठोर कायदे लागू करण्याचे आवाहन करत आहे.

  • कंटेंट मॉडरेशन (content moderation) आणि प्लॅटफॉर्म सुरक्षा (platform safety) बाबत टेक कंपन्यांकडून अधिक जबाबदारीची (accountability) मागणी देखील केली जात आहे.

  • हा अहवाल इंटरसेक्शनल हानी (intersectional harms) आणि प्रतिसादात्मक यंत्रणा (response mechanisms) तपासणाऱ्या चार-भागांच्या मालिकेतील पहिला आहे.

प्रभाव (Impact)


  • ही बातमी एक गंभीर जागतिक मानवाधिकार संकट दर्शवते, जी अभिव्यक्ती स्वातंत्र्य आणि असुरक्षित गटांसाठी, विशेषतः सार्वजनिक भूमिकांमधील महिलांच्या सुरक्षिततेवर परिणाम करते.

  • हे तंत्रज्ञान प्लॅटफॉर्मच्या जबाबदाऱ्या आणि जगभरातील कायदेशीर कारवाईच्या गरजेबद्दल महत्त्वपूर्ण प्रश्न उपस्थित करते.

  • Impact Rating: 7

कठीण शब्दांचे स्पष्टीकरण


  • तंत्रज्ञानाद्वारे सुलभ हिंसा (Technology-facilitated violence): डिजिटल साधने आणि ऑनलाइन प्लॅटफॉर्ममुळे शक्य झालेला, वाढलेला किंवा सोपा झालेला छळ, धमक्या, पाळत ठेवणे किंवा हानी.

  • AI-सहाय्यित ऑनलाइन हिंसा (AI-assisted online violence): कृत्रिम बुद्धिमत्ता (artificial intelligence) वापरून डीपफेक (deepfake) सारखी वास्तववादी बनावट चित्रे किंवा हाताळलेले व्हिडिओ (manipulated videos) यांसारखी हानिकारक सामग्री तयार करण्यासाठी किंवा वाढवण्यासाठी वापरला जाणारा ऑनलाइन छळ.

  • डीपफेक इमेज (Deepfake imagery): AI वापरून तयार केलेली अत्यंत वास्तववादी बनावट चित्रे किंवा व्हिडिओ, जे अनेकदा कोणाचीतरी नक्कल करण्यासाठी किंवा त्यांना खोट्या परिस्थितीत टाकण्यासाठी वापरले जातात.

  • डॉक्सिंग (Doxxing): एखाद्या व्यक्ती किंवा संस्थेबद्दल खाजगी वैयक्तिक माहिती सार्वजनिकरित्या उघड करण्याची कृती, सामान्यतः वाईट हेतूने.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.