AI ડેટા લીક: ભારતીય કંપનીઓ માટે વધતું 'અંધ સ્થળ' (Blind Spot)
ભારતીય ઉદ્યોગો 2026 સુધીમાં માહિતી સુરક્ષા પર $3.4 બિલિયન નું રોકાણ કરવા તૈયાર છે, જે AI ના જોખમો અને નિયમોને કારણે 11.7% નો વધારો દર્શાવે છે. જ્યારે આ ખર્ચ ફાયરવોલ અને ઘૂસણખોરી શોધ (intrusion detection) જેવી બાહ્ય સુરક્ષા પર ધ્યાન કેન્દ્રિત કરે છે, ત્યારે એક મોટું આંતરિક જોખમ મોટાભાગે અવગણવામાં આવે છે: કર્મચારીઓ અજાણતા પબ્લિક AI ટૂલ્સ દ્વારા સંવેદનશીલ ડેટા અને બૌદ્ધિક સંપદા (intellectual property) લીક કરી રહ્યા છે. આ 'શેડો ડેટા ટ્રાન્સફર' પરંપરાગત સુરક્ષાને બાયપાસ કરે છે, અને કંપનીઓને ભારતની ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ, 2023 (DPDPA) હેઠળ તાત્કાલિક નિયમનકારી કાર્યવાહી માટે ખુલ્લી પાડે છે. રેન્સમવેરથી વિપરીત, આ આંતરિક લીક ઘણીવાર અદ્રશ્ય હોય છે પરંતુ નોંધપાત્ર નિયમનકારી અને IP પરિણામો ધરાવે છે.
DPDPA દંડ અને IP નુકસાનનો મોટો ભય
ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ, 2023 (DPDPA) કંપનીઓને પર્સનલ ડેટા ભંગને રોકવા માટે વાજબી સુરક્ષા પગલાં લાગુ કરવાની જરૂર પડે છે. આમ કરવામાં નિષ્ફળતા ₹250 કરોડ સુધીનો દંડ લાવી શકે છે. વધુમાં, કંપનીઓએ કોઈપણ ભંગની તાત્કાલિક ડેટા પ્રોટેક્શન બોર્ડ ઓફ ઇન્ડિયા અને અસરગ્રસ્ત વ્યક્તિઓને જાણ કરવી પડશે, જેમાં બિન-પાલન માટે ₹200 કરોડ સુધીના દંડ લાગી શકે છે. જ્યારે કર્મચારીઓ સંવેદનશીલ માહિતીને પબ્લિક AI ટૂલ્સમાં પેસ્ટ કરે છે, ત્યારે આ ડેટા કંપનીના નિયંત્રણમાંથી બહાર નીકળી જાય છે, જે આ જોગવાઈઓનું સીધું ઉલ્લંઘન છે. દંડ ઉપરાંત, માલિકીના એલગોરિધમ્સ અને વેપાર રહસ્યો જેવી બૌદ્ધિક સંપદા કાયમ માટે સમાધાન થઈ શકે છે, જે સંભવતઃ સ્પર્ધકો માટે સુલભ બની શકે છે. પ્રોફેશનલ સર્વિસિસ ફર્મ્સ પણ આવા ખુલાસાઓ દ્વારા ક્લાયન્ટ ગોપનીયતા કરારોના ભંગનું ગંભીર જોખમ ધરાવે છે.
પરંપરાગત સુરક્ષા AI લીક સામે શા માટે નિષ્ફળ જાય છે?
ભારત એન્ટરપ્રાઇઝ AI ટ્રાફિક માટેનું મુખ્ય હબ છે, જેમાં AI/ML ટ્રાન્ઝેક્શન્સમાં 309.9% નો વર્ષ-દર-વર્ષ વધારો જોવા મળ્યો છે. રિપોર્ટ્સ દર્શાવે છે કે ChatGPT જેવા પબ્લિક ટૂલ્સ પહેલેથી જ લાખો ડેટા લોસ પ્રિવેન્શન (DLP) ઉલ્લંઘનોનું કારણ બન્યા છે, અને કોડિંગ સહાયકો ડેટા લીકેજની ઘટનાઓમાં વધુને વધુ સામેલ થઈ રહ્યા છે. ઇમેઇલ્સ અને USB ડ્રાઇવ્સ માટે ડિઝાઇન કરાયેલ પરંપરાગત DLP ટૂલ્સ, વેબ બ્રાઉઝર્સ દ્વારા એક્સેસ કરાતા અદ્યતન AI ચેટબોટ્સ અને LLMs ને મોનિટર કરવા માટે સજ્જ નથી. જ્યારે મોટાભાગના વપરાશકર્તાઓ (79%) એન્ટરપ્રાઇઝ-માન્ય AI ટૂલ્સ પસંદ કરે છે, ત્યારે 15% હજુ પણ વ્યક્તિગત અને કાર્ય ખાતાઓ વચ્ચે સ્વિચ કરે છે, જે સતત લીકેજ પોઇન્ટ્સ બનાવે છે. સ્ટાર્ટઅપ્સ અને નાનાથી મધ્યમ કદના વ્યવસાયો (SMEs), જે ઘણીવાર ઝડપી ઉત્પાદકતાને પ્રાથમિકતા આપે છે, તેઓ ખાસ કરીને સંવેદનશીલ છે. મોટી કંપનીઓ માટે, આ વર્તન કરતા કર્મચારીઓની નાની ટકાવારી પણ નોંધપાત્ર ડેટા એક્સફિલ્ટ્રેશન તરફ દોરી શકે છે.
છુપાયેલું જોખમ: AI મોડેલ્સમાં એમ્બેડેડ ડેટા
સૌથી ચિંતાજનક પાસું એ છે કે કર્મચારીઓ દ્વારા AI નો આ ઉપયોગ મોટાભાગે અદ્રશ્ય રહે છે. પબ્લિક AI મોડેલ્સમાં અપલોડ કરાયેલ ડેટા લગભગ અપ્રાપ્ત (unrecoverable) હોય છે, જે પ્રોવાઇડરના એલગોરિધમ્સમાં એમ્બેડેડ થઈ જાય છે, ઘણીવાર તાલીમ માટે વપરાય છે. આ બૌદ્ધિક સંપદા માટે ગંભીર જોખમ ઊભું કરે છે. 2021 માં Air India અથવા 2022 માં BharatPe જેવા ભૂતકાળના ડેટા ભંગના કિસ્સાઓથી વિપરીત, આ ડેટા જાણીજોઈને, જોકે અજાણતા, શેર કરવામાં આવે છે અને થર્ડ-પાર્ટી સિસ્ટમ્સમાં એકીકૃત થાય છે. DPDPA ની દંડ માળખામાં સુરક્ષા નિષ્ફળતાઓ માટે ₹250 કરોડ સુધીનો અને સૂચના લેપ્સ માટે ₹200 કરોડ સુધીનો દંડ સામેલ છે, જે સંભવતઃ પ્રતિ લીકેજ ઘટના લાગુ થઈ શકે છે, જેનાથી જવાબદારીઓ અમર્યાદિત બને છે. 'વાજબી સુરક્ષા પગલાં' સાબિત કરવા અત્યંત મુશ્કેલ છે જ્યારે ખતરો કોઈ અદ્યતન હુમલા કરતાં નિયમિત કર્મચારી પ્રવૃત્તિમાંથી આવે છે. સ્પષ્ટ AI મોડેલ ઉપયોગ ઇન્વેન્ટરીના અભાવને કારણે ઘણી સંસ્થાઓને તેમના એક્સપોઝરની હદ પણ ખબર નહીં હોય.
AI ડેટા લીક સામે સુરક્ષિત કરવાના પગલાં
આ નબળાઈને પહોંચી વળવા માટે તકનીકી નિયંત્રણો અને સાંસ્કૃતિક પરિવર્તનના સંયુક્ત અભિગમની જરૂર છે. AI પોતે દુરુપયોગ સામે લડવા માટેનું સાધન બની રહ્યું છે, જેમ કે કડક ડેટા હેન્ડલિંગ સાથે એન્ટરપ્રાઇઝ-ગ્રેડ પ્લેટફોર્મ્સ, સંવેદનશીલ ડેટાને બ્લોક કરતા બ્રાઉઝર એક્સ્ટેન્શન્સ અને AI ટ્રાફિકનું નેટવર્ક મોનિટરિંગ. તેટલું જ મહત્વપૂર્ણ કર્મચારીઓને ચોક્કસ જોખમો વિશે શિક્ષિત કરવું, મંજૂર AI વિકલ્પો પ્રદાન કરવા અને નવી પરિસ્થિતિઓ માટે સ્પષ્ટ પ્રક્રિયાઓ સ્થાપિત કરવી છે. સંસ્થાઓએ આંતરિક સિસ્ટમ્સનું ઓડિટ કરવું જોઈએ અને ઉત્પાદકતાને આવશ્યક સુરક્ષા અને પાલન સાથે સંતુલિત કરતી કસ્ટમાઇઝ્ડ માર્ગદર્શિકાઓ બનાવવી જોઈએ. સાયબર સુરક્ષા રોકાણોનું સફળતાપૂર્વક સંચાલન હવે આ આંતરિક AI ડેટા લીકેજ બ્લાઇન્ડ સ્પોટને બંધ કરવા પર નિર્ભર કરે છે.