AI નો ઉપયોગ કરતા ભારતીય કંપનીઓ માટે મોટું જોખમ: ડેટા લીક અને ₹250 કરોડ સુધીના દંડનો ભય!

TECH
Whalesbook Logo
AuthorDhruv Kapoor|Published at:
AI નો ઉપયોગ કરતા ભારતીય કંપનીઓ માટે મોટું જોખમ: ડેટા લીક અને ₹250 કરોડ સુધીના દંડનો ભય!
Overview

ભારતીય કંપનીઓ સાયબર સુરક્ષા પર મોટા પ્રમાણમાં રોકાણ કરી રહી છે, પરંતુ તેઓ એક મોટા આંતરિક જોખમને અવગણી રહી છે. કર્મચારીઓ દ્વારા પબ્લિક AI ટૂલ્સનો ઉપયોગ સંવેદનશીલ ડેટા અને બૌદ્ધિક સંપદા (IP) ને લીક કરી શકે છે. આ 'શેડો ડેટા ટ્રાન્સફર' કંપનીઓને Digital Personal Data Protection Act (DPDPA) હેઠળ પ્રતિ ઉલ્લંઘન **₹250 કરોડ** સુધીના દંડ તરફ ધકેલી શકે છે.

Instant Stock Alerts on WhatsApp

Used by 10,000+ active investors

1

Add Stocks

Select the stocks you want to track in real time.

2

Get Alerts on WhatsApp

Receive instant updates directly to WhatsApp.

  • Quarterly Results
  • Concall Announcements
  • New Orders & Big Deals
  • Capex Announcements
  • Bulk Deals
  • And much more

AI ડેટા લીક: ભારતીય કંપનીઓ માટે વધતું 'અંધ સ્થળ' (Blind Spot)

ભારતીય ઉદ્યોગો 2026 સુધીમાં માહિતી સુરક્ષા પર $3.4 બિલિયન નું રોકાણ કરવા તૈયાર છે, જે AI ના જોખમો અને નિયમોને કારણે 11.7% નો વધારો દર્શાવે છે. જ્યારે આ ખર્ચ ફાયરવોલ અને ઘૂસણખોરી શોધ (intrusion detection) જેવી બાહ્ય સુરક્ષા પર ધ્યાન કેન્દ્રિત કરે છે, ત્યારે એક મોટું આંતરિક જોખમ મોટાભાગે અવગણવામાં આવે છે: કર્મચારીઓ અજાણતા પબ્લિક AI ટૂલ્સ દ્વારા સંવેદનશીલ ડેટા અને બૌદ્ધિક સંપદા (intellectual property) લીક કરી રહ્યા છે. આ 'શેડો ડેટા ટ્રાન્સફર' પરંપરાગત સુરક્ષાને બાયપાસ કરે છે, અને કંપનીઓને ભારતની ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ, 2023 (DPDPA) હેઠળ તાત્કાલિક નિયમનકારી કાર્યવાહી માટે ખુલ્લી પાડે છે. રેન્સમવેરથી વિપરીત, આ આંતરિક લીક ઘણીવાર અદ્રશ્ય હોય છે પરંતુ નોંધપાત્ર નિયમનકારી અને IP પરિણામો ધરાવે છે.

DPDPA દંડ અને IP નુકસાનનો મોટો ભય

ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ, 2023 (DPDPA) કંપનીઓને પર્સનલ ડેટા ભંગને રોકવા માટે વાજબી સુરક્ષા પગલાં લાગુ કરવાની જરૂર પડે છે. આમ કરવામાં નિષ્ફળતા ₹250 કરોડ સુધીનો દંડ લાવી શકે છે. વધુમાં, કંપનીઓએ કોઈપણ ભંગની તાત્કાલિક ડેટા પ્રોટેક્શન બોર્ડ ઓફ ઇન્ડિયા અને અસરગ્રસ્ત વ્યક્તિઓને જાણ કરવી પડશે, જેમાં બિન-પાલન માટે ₹200 કરોડ સુધીના દંડ લાગી શકે છે. જ્યારે કર્મચારીઓ સંવેદનશીલ માહિતીને પબ્લિક AI ટૂલ્સમાં પેસ્ટ કરે છે, ત્યારે આ ડેટા કંપનીના નિયંત્રણમાંથી બહાર નીકળી જાય છે, જે આ જોગવાઈઓનું સીધું ઉલ્લંઘન છે. દંડ ઉપરાંત, માલિકીના એલગોરિધમ્સ અને વેપાર રહસ્યો જેવી બૌદ્ધિક સંપદા કાયમ માટે સમાધાન થઈ શકે છે, જે સંભવતઃ સ્પર્ધકો માટે સુલભ બની શકે છે. પ્રોફેશનલ સર્વિસિસ ફર્મ્સ પણ આવા ખુલાસાઓ દ્વારા ક્લાયન્ટ ગોપનીયતા કરારોના ભંગનું ગંભીર જોખમ ધરાવે છે.

પરંપરાગત સુરક્ષા AI લીક સામે શા માટે નિષ્ફળ જાય છે?

ભારત એન્ટરપ્રાઇઝ AI ટ્રાફિક માટેનું મુખ્ય હબ છે, જેમાં AI/ML ટ્રાન્ઝેક્શન્સમાં 309.9% નો વર્ષ-દર-વર્ષ વધારો જોવા મળ્યો છે. રિપોર્ટ્સ દર્શાવે છે કે ChatGPT જેવા પબ્લિક ટૂલ્સ પહેલેથી જ લાખો ડેટા લોસ પ્રિવેન્શન (DLP) ઉલ્લંઘનોનું કારણ બન્યા છે, અને કોડિંગ સહાયકો ડેટા લીકેજની ઘટનાઓમાં વધુને વધુ સામેલ થઈ રહ્યા છે. ઇમેઇલ્સ અને USB ડ્રાઇવ્સ માટે ડિઝાઇન કરાયેલ પરંપરાગત DLP ટૂલ્સ, વેબ બ્રાઉઝર્સ દ્વારા એક્સેસ કરાતા અદ્યતન AI ચેટબોટ્સ અને LLMs ને મોનિટર કરવા માટે સજ્જ નથી. જ્યારે મોટાભાગના વપરાશકર્તાઓ (79%) એન્ટરપ્રાઇઝ-માન્ય AI ટૂલ્સ પસંદ કરે છે, ત્યારે 15% હજુ પણ વ્યક્તિગત અને કાર્ય ખાતાઓ વચ્ચે સ્વિચ કરે છે, જે સતત લીકેજ પોઇન્ટ્સ બનાવે છે. સ્ટાર્ટઅપ્સ અને નાનાથી મધ્યમ કદના વ્યવસાયો (SMEs), જે ઘણીવાર ઝડપી ઉત્પાદકતાને પ્રાથમિકતા આપે છે, તેઓ ખાસ કરીને સંવેદનશીલ છે. મોટી કંપનીઓ માટે, આ વર્તન કરતા કર્મચારીઓની નાની ટકાવારી પણ નોંધપાત્ર ડેટા એક્સફિલ્ટ્રેશન તરફ દોરી શકે છે.

છુપાયેલું જોખમ: AI મોડેલ્સમાં એમ્બેડેડ ડેટા

સૌથી ચિંતાજનક પાસું એ છે કે કર્મચારીઓ દ્વારા AI નો આ ઉપયોગ મોટાભાગે અદ્રશ્ય રહે છે. પબ્લિક AI મોડેલ્સમાં અપલોડ કરાયેલ ડેટા લગભગ અપ્રાપ્ત (unrecoverable) હોય છે, જે પ્રોવાઇડરના એલગોરિધમ્સમાં એમ્બેડેડ થઈ જાય છે, ઘણીવાર તાલીમ માટે વપરાય છે. આ બૌદ્ધિક સંપદા માટે ગંભીર જોખમ ઊભું કરે છે. 2021 માં Air India અથવા 2022 માં BharatPe જેવા ભૂતકાળના ડેટા ભંગના કિસ્સાઓથી વિપરીત, આ ડેટા જાણીજોઈને, જોકે અજાણતા, શેર કરવામાં આવે છે અને થર્ડ-પાર્ટી સિસ્ટમ્સમાં એકીકૃત થાય છે. DPDPA ની દંડ માળખામાં સુરક્ષા નિષ્ફળતાઓ માટે ₹250 કરોડ સુધીનો અને સૂચના લેપ્સ માટે ₹200 કરોડ સુધીનો દંડ સામેલ છે, જે સંભવતઃ પ્રતિ લીકેજ ઘટના લાગુ થઈ શકે છે, જેનાથી જવાબદારીઓ અમર્યાદિત બને છે. 'વાજબી સુરક્ષા પગલાં' સાબિત કરવા અત્યંત મુશ્કેલ છે જ્યારે ખતરો કોઈ અદ્યતન હુમલા કરતાં નિયમિત કર્મચારી પ્રવૃત્તિમાંથી આવે છે. સ્પષ્ટ AI મોડેલ ઉપયોગ ઇન્વેન્ટરીના અભાવને કારણે ઘણી સંસ્થાઓને તેમના એક્સપોઝરની હદ પણ ખબર નહીં હોય.

AI ડેટા લીક સામે સુરક્ષિત કરવાના પગલાં

આ નબળાઈને પહોંચી વળવા માટે તકનીકી નિયંત્રણો અને સાંસ્કૃતિક પરિવર્તનના સંયુક્ત અભિગમની જરૂર છે. AI પોતે દુરુપયોગ સામે લડવા માટેનું સાધન બની રહ્યું છે, જેમ કે કડક ડેટા હેન્ડલિંગ સાથે એન્ટરપ્રાઇઝ-ગ્રેડ પ્લેટફોર્મ્સ, સંવેદનશીલ ડેટાને બ્લોક કરતા બ્રાઉઝર એક્સ્ટેન્શન્સ અને AI ટ્રાફિકનું નેટવર્ક મોનિટરિંગ. તેટલું જ મહત્વપૂર્ણ કર્મચારીઓને ચોક્કસ જોખમો વિશે શિક્ષિત કરવું, મંજૂર AI વિકલ્પો પ્રદાન કરવા અને નવી પરિસ્થિતિઓ માટે સ્પષ્ટ પ્રક્રિયાઓ સ્થાપિત કરવી છે. સંસ્થાઓએ આંતરિક સિસ્ટમ્સનું ઓડિટ કરવું જોઈએ અને ઉત્પાદકતાને આવશ્યક સુરક્ષા અને પાલન સાથે સંતુલિત કરતી કસ્ટમાઇઝ્ડ માર્ગદર્શિકાઓ બનાવવી જોઈએ. સાયબર સુરક્ષા રોકાણોનું સફળતાપૂર્વક સંચાલન હવે આ આંતરિક AI ડેટા લીકેજ બ્લાઇન્ડ સ્પોટને બંધ કરવા પર નિર્ભર કરે છે.

Get stock alerts instantly on WhatsApp

Quarterly results, bulk deals, concall updates and major announcements delivered in real time.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.