AI వాడకంతో భారత కంపెనీలకు భారీ ముప్పు! ఉద్యోగుల నిర్లక్ష్యంతో డేటా లీకేజీ.. ₹250 కోట్ల ఫైన్ భయం!

TECH
Whalesbook Logo
AuthorJay Mehta|Published at:
AI వాడకంతో భారత కంపెనీలకు భారీ ముప్పు! ఉద్యోగుల నిర్లక్ష్యంతో డేటా లీకేజీ.. ₹250 కోట్ల ఫైన్ భయం!
Overview

భారతదేశంలోని కంపెనీలు సైబర్ సెక్యూరిటీకి భారీగా **$3.4 బిలియన్లు** ఖర్చు చేస్తున్నాయి. అయితే, ఉద్యోగులు పబ్లిక్ AI టూల్స్ వాడటం వల్ల సున్నితమైన డేటా, మేధో సంపత్తి (Intellectual Property) బయటకు వెళ్లిపోతున్న కీలకమైన అంతర్గత ప్రమాదాన్ని (Internal Risk) పట్టించుకోవడం లేదు. ఈ 'షేడో డేటా ట్రాన్స్‌ఫర్' (Shadow Data Transfer) వలన, కంపెనీలు DPDPA చట్టం కింద ఒక్కో ఉల్లంఘనకు **₹250 కోట్ల** వరకు జరిమానాలు ఎదుర్కొనే ప్రమాదం ఉంది.

Instant Stock Alerts on WhatsApp

Used by 10,000+ active investors

1

Add Stocks

Select the stocks you want to track in real time.

2

Get Alerts on WhatsApp

Receive instant updates directly to WhatsApp.

  • Quarterly Results
  • Concall Announcements
  • New Orders & Big Deals
  • Capex Announcements
  • Bulk Deals
  • And much more

ఎందుకీ భారీ ఖర్చు.. అయినా ప్రమాదం తప్పట్లేదు?

భారతీయ ఎంటర్‌ప్రైజెస్‌ 2026 నాటికి సమాచార భద్రత (Information Security) కోసం $3.4 బిలియన్లు పెట్టుబడి పెట్టాలని భావిస్తున్నాయి. ఇది గతేడాితో పోలిస్తే 11.7% ఎక్కువ. AI ముప్పులు, కొత్త నిబంధనల నేపథ్యంలో ఈ ఖర్చు పెరుగుతోంది. అయితే, ఈ పెట్టుబడులన్నీ ఫైర్‌వాల్స్, చొరబాటు గుర్తింపు (Intrusion Detection) వంటి బాహ్య రక్షణల (External Defenses) పైనే కేంద్రీకృతమవుతున్నాయి. కానీ, ఉద్యోగులు తెలియకుండానే పబ్లిక్ AI టూల్స్ ద్వారా సున్నితమైన డేటాను, మేధో సంపత్తిని (Intellectual Property) లీక్ చేస్తున్న ఒక ముఖ్యమైన అంతర్గత ప్రమాదాన్ని (Internal Risk) చాలామంది పట్టించుకోవట్లేదు.

DPDPA చట్టం, IP నష్టం.. భయంకరమైన పరిణామాలు

డిజిటల్ పర్సనల్ డేటా ప్రొటెక్షన్ యాక్ట్, 2023 (DPDPA) ప్రకారం, వ్యక్తిగత డేటా ఉల్లంఘనలను నివారించడానికి కంపెనీలు సరైన భద్రతా చర్యలు తీసుకోవాలి. అలా చేయడంలో విఫలమైతే, ఒక్కో ఉల్లంఘనకు ₹250 కోట్ల వరకు జరిమానాలు విధించబడతాయి. అంతేకాకుండా, ఏదైనా బ్రీచ్ జరిగితే వెంటనే డేటా ప్రొటెక్షన్ బోర్డ్ ఆఫ్ ఇండియాకు, ప్రభావిత వ్యక్తులకు తెలియజేయాలి. దీనిలో విఫలమైతే ₹200 కోట్ల వరకు జరిమానాలు పడతాయి. ఉద్యోగులు సున్నితమైన సమాచారాన్ని పబ్లిక్ AI టూల్స్‌లో పేస్ట్ చేసినప్పుడు, ఆ డేటా కంపెనీ నియంత్రణను దాటి బయటకు వెళ్లిపోతుంది. ఇది నేరుగా ఈ నిబంధనలను ఉల్లంఘించడమే. కేవలం జరిమానాలే కాకుండా, యాజమాన్య అల్గారిథమ్‌లు, ట్రేడ్ సీక్రెట్స్ వంటి మేధో సంపత్తి శాశ్వతంగా దెబ్బతినే అవకాశం ఉంది. పోటీదారులకు కూడా ఈ సమాచారం అందుబాటులోకి రావచ్చు. ప్రొఫెషనల్ సర్వీసెస్ సంస్థలు క్లయింట్ రహస్యాలను ఉల్లంఘించే తీవ్రమైన ప్రమాదాన్ని కూడా ఎదుర్కొంటాయి.

పాత రక్షణ వ్యవస్థలు AI లీకేజీని ఎలా ఆపలేవు?

భారతదేశం ఎంటర్‌ప్రైజ్ AI ట్రాఫిక్‌కు ఒక ప్రధాన కేంద్రంగా మారింది. AI/ML లావాదేవీలలో సంవత్సరానికి 309.9% అద్భుతమైన వృద్ధి నమోదవుతోంది. ChatGPT వంటి పబ్లిక్ టూల్స్ ఇప్పటికే లక్షలాది డేటా నష్ట నివారణ (Data Loss Prevention) ఉల్లంఘనలకు కారణమయ్యాయని నివేదికలు చెబుతున్నాయి. కోడింగ్ అసిస్టెంట్స్ కూడా డేటా లీకేజీ సంఘటనలలో ఎక్కువగా ప్రమేయం చూపుతున్నాయి. ఈమెయిల్స్, USB డ్రైవ్‌ల కోసం రూపొందించబడిన సాంప్రదాయ డేటా నష్ట నివారణ (DLP) సాధనాలు, వెబ్ బ్రౌజర్‌ల ద్వారా యాక్సెస్ చేసే అధునాతన AI చాట్‌బాట్‌లు, LLMలను పర్యవేక్షించడానికి సిద్ధంగా లేవు. ఎక్కువ మంది వినియోగదారులు (79%) ఎంటర్‌ప్రైజ్-ఆమోదిత AI టూల్స్‌ను ఇష్టపడినప్పటికీ, 15% మంది ఇప్పటికీ వ్యక్తిగత, పని ఖాతాల మధ్య మారుతూ ఉంటారు, ఇది నిరంతర లీకేజీకి దారితీస్తుంది. వేగవంతమైన ఉత్పాదకతకు ప్రాధాన్యతనిచ్చే స్టార్టప్‌లు, చిన్న, మధ్య తరహా వ్యాపారాలు (SMEs) ముఖ్యంగా ప్రమాదంలో ఉన్నాయి. పెద్ద కంపెనీలలో కూడా, కొద్ది శాతం ఉద్యోగులు ఇలా ప్రవర్తించినా భారీ స్థాయిలో డేటా బహిర్గతమవుతుంది.

దాగి ఉన్న ప్రమాదం: AI మోడల్స్‌లో కలిసిపోయే డేటా

అత్యంత ఆందోళనకరమైన విషయం ఏమిటంటే, ఈ ఉద్యోగి AI వాడకం చాలావరకు కనబడకుండానే జరుగుతోంది. పబ్లిక్ AI మోడల్స్‌కు అప్‌లోడ్ చేసిన డేటా దాదాపుగా తిరిగి పొందలేనిదిగా మారుతుంది. ఇది ప్రొవైడర్ల అల్గారిథమ్‌లలో కలిసిపోయి, తరచుగా శిక్షణ కోసం ఉపయోగించబడుతుంది. ఇది మేధో సంపత్తికి తీవ్రమైన ముప్పు కలిగిస్తుంది. 2021లో ఎయిర్ ఇండియా, 2022లో భారత్‌పే వంటి గత డేటా దొంగతనాల వలె కాకుండా, ఈ డేటా తెలిసి, అనాలోచితంగా థర్డ్-పార్టీ సిస్టమ్స్‌లో భాగమవుతుంది. DPDPA యొక్క జరిమానా నిర్మాణం, భద్రతా వైఫల్యాలకు ₹250 కోట్ల వరకు, నోటిఫికేషన్ లోపాలకు ₹200 కోట్ల వరకు జరిమానాలను అనుమతిస్తుంది. ప్రతి లీకేజీ సంఘటనకు ఇవి వర్తించవచ్చు, కాబట్టి బాధ్యతలు అపరిమితంగా ఉంటాయి. ఉద్యోగుల సాధారణ కార్యకలాపాల నుండి ముప్పు వస్తున్నప్పుడు, అధునాతన దాడి నుండి కాకుండా, 'సహేతుకమైన భద్రతా రక్షణలు' (Reasonable Security Safeguards) ఉన్నాయని నిరూపించడం చాలా కష్టం. చాలా సంస్థలకు స్పష్టమైన AI మోడల్ వినియోగ జాబితా (Inventory) లేకపోవడం వల్ల, వారి బహిర్గత స్థాయి గురించి తెలియకపోవచ్చు.

AI డేటా లీకేజీల నుండి రక్షించుకోవడానికి చర్యలు

ఈ దుర్బలత్వాన్ని పరిష్కరించడానికి సాంకేతిక నియంత్రణలు, సాంస్కృతిక మార్పుల కలయిక అవసరం. AIయే దుర్వినియోగాన్ని ఎదుర్కోవడానికి ఒక సాధనంగా మారుతోంది. కఠినమైన డేటా హ్యాండ్లింగ్‌తో కూడిన ఎంటర్‌ప్రైజ్-గ్రేడ్ ప్లాట్‌ఫారమ్‌లు, సున్నితమైన డేటాను నిరోధించే బ్రౌజర్ ఎక్స్‌టెన్షన్‌లు, AI ట్రాఫిక్‌ను పర్యవేక్షించే నెట్‌వర్క్ మానిటరింగ్ వంటివి ఉపయోగించవచ్చు. అంతేకాకుండా, ఉద్యోగులకు నిర్దిష్ట నష్టాల గురించి అవగాహన కల్పించడం, ఆమోదించబడిన AI ప్రత్యామ్నాయాలను అందించడం, కొత్త పరిస్థితుల కోసం స్పష్టమైన ప్రక్రియలను ఏర్పాటు చేయడం చాలా ముఖ్యం. సంస్థలు అంతర్గత సిస్టమ్‌లను ఆడిట్ చేయాలి, ఉత్పాదకతతో పాటు అవసరమైన భద్రత, సమ్మతిని సమతుల్యం చేసే అనుకూలీకరించిన మార్గదర్శకాలను రూపొందించాలి. సైబర్‌ సెక్యూరిటీ పెట్టుబడులను విజయవంతంగా నిర్వహించడం ఇప్పుడు ఈ అంతర్గత AI డేటా లీకేజీ లోపాన్ని పూరించడంపై ఆధారపడి ఉంటుంది.

Get stock alerts instantly on WhatsApp

Quarterly results, bulk deals, concall updates and major announcements delivered in real time.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.