Tech
|
Updated on 08 Nov 2025, 02:26 am
Reviewed By
Aditi Singh | Whalesbook News Team
▶
ભારતના ઇલેક્ટ્રોનિક્સ અને માહિતી ટેકનોલોજી મંત્રાલયે આર્ટિફિશિયલ ઇન્ટેલિજન્સ ગવર્નન્સ માટે માર્ગદર્શિકાઓ જારી કરી છે, જેમાં નવા AI-વિશિષ્ટ કાયદા બનાવવાને બદલે 'લાઇટ-ટચ' નિયમનકારી મોડેલ પસંદ કર્યું છે. આ ફ્રેમવર્ક જણાવે છે કે ઇન્ફોર્મેશન ટેકનોલોજી એક્ટ, ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ અને ગ્રાહક સુરક્ષા કાયદા જેવા હાલના કાયદા AI-સંબંધિત જોખમોને પહોંચી વળવા માટે પૂરતા છે. આ અભિગમ સ્વૈચ્છિક ઉદ્યોગ પ્રતિબદ્ધતાઓ અને AI સિસ્ટમ્સમાં અંતર્ગત જવાબદારીને પ્રાથમિકતા આપે છે, જેનો ઉદ્દેશ્ય ઝડપી નવીનતાને પ્રોત્સાહન આપવાનો છે. માર્ગદર્શિકાઓનો એક મહત્વપૂર્ણ પાસું માનવ દેખરેખ પર ભાર મૂકવાનો છે, જે ભારતને AI માટે વૈશ્વિક નૈતિક વિચારણાઓ સાથે સંરેખિત કરે છે. પારદર્શિતા પણ એક મુખ્ય માંગ છે, જે AI સિસ્ટમ્સ કેવી રીતે કાર્ય કરે છે, ડેટાનું સંચાલન કરે છે અને કમ્પ્યુટિંગ સંસાધનોનો ઉપયોગ કરે છે તે અંગે સ્પષ્ટતાની માંગ કરે છે, જેથી 'બ્લેક બોક્સ સમસ્યા'નો સામનો કરી શકાય. આ સ્વૈચ્છિક પાલન મોડેલ યુરોપિયન યુનિયનના કડક, જોખમ-આધારિત આર્ટિફિશિયલ ઇન્ટેલિજન્સ એક્ટથી તદ્દન અલગ છે, જે ફરજિયાત કાયદાકીય જવાબદારીઓ લાગુ કરે છે. વિવેચકો દલીલ કરે છે કે સ્વૈચ્છિક પગલાં પર વધુ પડતો આધાર નાગરિકોને સંવેદનશીલ બનાવી શકે છે અને ફ્રેમવર્કને રક્ષણાત્મક કરતાં વધુ મહત્વાકાંક્ષી બનાવી શકે છે, સંભવતઃ ડીપફેક્સ અને અલ્ગોરિધમિક ભેદભાવ જેવી સામાજિક-રાજકીય અસરોને અવગણી શકે છે. પ્રસ્તાવિત સંસ્થાકીય માળખામાં AI ગવર્નન્સ ગ્રુપ (AIGG), ટેકનોલોજી અને પોલિસી એક્સપર્ટ કમિટી અને AI સેફ્ટી ઇન્સ્ટિટ્યુટનો સમાવેશ થાય છે. AIGG માં પાંચ કેન્દ્રીય મંત્રાલયોના પ્રતિનિધિઓ અને ટેલિકોમ રેગ્યુલેટરી ઓથોરિટી ઓફ ઇન્ડિયા, કોમ્પિટિશન કમિશન ઓફ ઇન્ડિયા, રિઝર્વ બેંક ઓફ ઇન્ડિયા અને સિક્યોરિટીઝ એન્ડ એક્સચેન્જ બોર્ડ ઓફ ઇન્ડિયા જેવા મુખ્ય નિયમનકારોનો સમાવેશ થશે. જ્યારે આ કાર્યક્ષમતા માટે સત્તાનું કેન્દ્રીકરણ કરે છે, તે કેન્દ્રિત શક્તિ અને તકનીકી અથવા નૈતિક નિર્ણયોમાં સંભવિત રાજકીય હસ્તક્ષેપ અંગે પણ ચિંતાઓ ઊભી કરે છે. **Impact**: માર્ગદર્શિકાઓ એક સ્પષ્ટ, જોકે સ્વૈચ્છિક, નિયમનકારી દિશા પ્રદાન કરીને ભારતના AI ક્ષેત્રને પ્રોત્સાહન આપવાનું લક્ષ્ય રાખે છે. આ AI ટેકનોલોજીમાં રોકાણ અને વિકાસને પ્રોત્સાહન આપી શકે છે, પરંતુ ફરજિયાત અમલીકરણના અભાવે કડક નિયમો ધરાવતા દેશોની તુલનામાં મજબૂત સુરક્ષા અને નૈતિક ધોરણો અપનાવવામાં વિલંબ થઈ શકે છે. ફ્રેમવર્કની સફળતા ઉદ્યોગના સ્વીકાર અને AI નુકસાનને પહોંચી વળવામાં હાલના કાયદાઓની અસરકારકતા પર ભારે નિર્ભર રહેશે. Impact Rating: 6/10. **Terms and Meanings**: * **Light-touch approach**: એક નિયમનકારી વ્યૂહરચના જેમાં ન્યૂનતમ સરકારી હસ્તક્ષેપનો સમાવેશ થાય છે, જે કડક નિયમો કરતાં સ્વ-નિયમન અને ઉદ્યોગ-આધારિત પહેલોને પ્રાધાન્ય આપે છે. * **Voluntary industry commitments**: કોઈપણ કાનૂની ફરજિયાત વિના, ચોક્કસ ધોરણો અથવા પ્રથાઓનું પાલન કરવા માટે કોઈ ચોક્કસ ક્ષેત્રની કંપનીઓ દ્વારા કરવામાં આવેલી પ્રતિજ્ઞાઓ અથવા વચનો. * **Embedded accountability**: બાહ્ય દેખરેખ અથવા સજા પર સંપૂર્ણપણે આધાર રાખવાને બદલે, પરિણામો માટેની જવાબદારી સીધી સિસ્ટમો અને પ્રક્રિયાઓમાં જ બનેલી (built-in) રહે તે રીતે ડિઝાઇન કરવી. * **Human oversight**: સ્વયંચાલિત પ્રણાલીઓ પર, ખાસ કરીને નિર્ણાયક નિર્ણયો માટે, માનવ નિર્ણય અને નિયંત્રણ જાળવી રાખવું જોઈએ તે સિદ્ધાંત. * **Black box problem**: AI સિસ્ટમોની આંતરિક કામગીરીનો ઉલ્લેખ કરે છે જે અપારદર્શક અથવા સમજવા માટે મુશ્કેલ હોય છે, જેના કારણે તેમના નિર્ણયો સમજાવવા અથવા ભૂલો શોધવી મુશ્કેલ બને છે. * **Algorithmic discrimination**: અલ્ગોરિધમ્સના પરિણામોને કારણે વ્યક્તિઓ અથવા જૂથો સાથે અયોગ્ય અથવા પક્ષપાતી વર્તન, જે ઘણીવાર પક્ષપાતી ડેટા અથવા ખામીયુક્ત ડિઝાઇનને કારણે થાય છે. * **Deepfakes**: કૃત્રિમ રીતે જનરેટ થયેલ મીડિયા (છબીઓ, વિડિઓઝ, ઑડિઓ) જે ખરેખર ન બનેલી ઘટનાઓને દર્શાવે છે, ઘણીવાર AI નો ઉપયોગ કરીને બનાવવામાં આવે છે, અને તેનો ઉપયોગ દૂષિત હેતુઓ માટે થઈ શકે છે.