Tech
|
Updated on 08 Nov 2025, 02:26 am
Reviewed By
Aditi Singh | Whalesbook News Team
▶
ਭਾਰਤ ਦੇ ਇਲੈਕਟ੍ਰੋਨਿਕਸ ਅਤੇ ਸੂਚਨਾ ਤਕਨਾਲੋਜੀ ਮੰਤਰਾਲੇ ਨੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਗਵਰਨੈਂਸ ਲਈ ਗਾਈਡਲਾਈਨਜ਼ ਜਾਰੀ ਕੀਤੀਆਂ ਹਨ, ਜਿਸ ਵਿੱਚ ਨਵੇਂ AI-ਵਿਸ਼ੇਸ਼ ਕਾਨੂੰਨ ਬਣਾਉਣ ਦੀ ਬਜਾਏ 'ਲਾਈਟ-ਟੱਚ' ਰੈਗੂਲੇਟਰੀ ਮਾਡਲ ਚੁਣਿਆ ਗਿਆ ਹੈ। ਇਹ ਢਾਂਚਾ ਮੰਨਦਾ ਹੈ ਕਿ ਇਨਫਰਮੇਸ਼ਨ ਟੈਕਨੋਲੋਜੀ ਐਕਟ, ਡਿਜੀਟਲ ਪਰਸਨਲ ਡਾਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ ਐਕਟ ਅਤੇ ਖਪਤਕਾਰ ਸੁਰੱਖਿਆ ਕਾਨੂੰਨ ਵਰਗੇ ਮੌਜੂਦਾ ਕਾਨੂੰਨ AI-ਸਬੰਧਤ ਜੋਖਮਾਂ ਨੂੰ ਨਜਿੱਠਣ ਲਈ ਕਾਫ਼ੀ ਹਨ। ਇਹ ਪਹੁੰਚ ਸਵੈ-ਇੱਛੁਕ ਉਦਯੋਗ ਵਚਨਬੱਧਤਾਵਾਂ ਅਤੇ AI ਸਿਸਟਮਾਂ ਵਿੱਚ ਏਕੀਕ੍ਰਿਤ ਜਵਾਬਦੇਹੀ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੀ ਹੈ, ਜਿਸਦਾ ਉਦੇਸ਼ ਤੇਜ਼ ਨਵੀਨਤਾ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ ਹੈ। ਗਾਈਡਲਾਈਨਜ਼ ਦਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪਹਿਲੂ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ 'ਤੇ ਜ਼ੋਰ ਦੇਣਾ ਹੈ, ਜੋ ਭਾਰਤ ਨੂੰ AI ਲਈ ਵਿਸ਼ਵਵਿਆਪੀ ਨੈਤਿਕ ਵਿਚਾਰਾਂ ਨਾਲ ਜੋੜਦਾ ਹੈ। ਪਾਰਦਰਸ਼ਤਾ ਵੀ ਇੱਕ ਮੁੱਖ ਮੰਗ ਹੈ, ਜੋ AI ਸਿਸਟਮ ਕਿਵੇਂ ਕੰਮ ਕਰਦੇ ਹਨ, ਡਾਟਾ ਦਾ ਪ੍ਰਬੰਧਨ ਕਿਵੇਂ ਕਰਦੇ ਹਨ, ਅਤੇ ਕੰਪਿਊਟਿੰਗ ਸਰੋਤਾਂ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰਦੇ ਹਨ, ਇਸ ਬਾਰੇ ਸਪੱਸ਼ਟਤਾ ਦੀ ਮੰਗ ਕਰਦੀ ਹੈ ਤਾਂ ਜੋ 'ਬਲੈਕ ਬਾਕਸ ਸਮੱਸਿਆ' ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕੇ। ਇਹ ਸਵੈ-ਇੱਛੁਕ ਪਾਲਣਾ ਮਾਡਲ ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਦੇ ਸਖ਼ਤ, ਜੋਖਮ-ਆਧਾਰਿਤ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਐਕਟ ਤੋਂ ਬਿਲਕੁਲ ਵੱਖਰਾ ਹੈ, ਜੋ ਬਾਈਡਿੰਗ ਕਾਨੂੰਨੀ ਜ਼ਿੰਮੇਵਾਰੀਆਂ ਲਾਗੂ ਕਰਦਾ ਹੈ। ਆਲੋਚਕਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਸਵੈ-ਇੱਛੁਕ ਉਪਾਵਾਂ 'ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰਤਾ ਨਾਗਰਿਕਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਬਣਾ ਸਕਦੀ ਹੈ ਅਤੇ ਢਾਂਚੇ ਨੂੰ ਸੁਰੱਖਿਆਤਮਕ ਹੋਣ ਦੀ ਬਜਾਏ ਵਧੇਰੇ ਮਹੱਤਵਪੂਰਨ ਬਣਾ ਸਕਦੀ ਹੈ, ਸੰਭਵ ਤੌਰ 'ਤੇ ਡੀਪਫੇਕਸ ਅਤੇ ਅਲਗੋਰਿਦਮਿਕ ਭੇਦਭਾਵ ਵਰਗੇ ਸਮਾਜਿਕ-ਰਾਜਨੀਤਕ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਸਕਦੀ ਹੈ। ਪ੍ਰਸਤਾਵਿਤ ਸੰਸਥਾਗਤ ਢਾਂਚੇ ਵਿੱਚ AI ਗਵਰਨੈਂਸ ਗਰੁੱਪ (AIGG), ਇੱਕ ਟੈਕਨੋਲੋਜੀ ਅਤੇ ਪਾਲਿਸੀ ਮਾਹਰ ਕਮੇਟੀ, ਅਤੇ ਇੱਕ AI ਸੇਫਟੀ ਇੰਸਟੀਚਿਊਟ ਸ਼ਾਮਲ ਹਨ। AIGG ਵਿੱਚ ਪੰਜ ਕੇਂਦਰੀ ਮੰਤਰਾਲਿਆਂ ਦੇ ਨੁਮਾਇੰਦੇ ਅਤੇ ਟੈਲੀਕਾਮ ਰੈਗੂਲੇਟਰੀ ਅਥਾਰਟੀ ਆਫ ਇੰਡੀਆ, ਕੰਪੀਟਿਸ਼ਨ ਕਮਿਸ਼ਨ ਆਫ ਇੰਡੀਆ, ਰਿਜ਼ਰਵ ਬੈਂਕ ਆਫ ਇੰਡੀਆ, ਅਤੇ ਸਕਿਓਰਿਟੀਜ਼ ਐਂਡ ਐਕਸਚੇਂਜ ਬੋਰਡ ਆਫ ਇੰਡੀਆ ਵਰਗੇ ਮੁੱਖ ਰੈਗੂਲੇਟਰ ਸ਼ਾਮਲ ਹੋਣਗੇ। ਜਦੋਂ ਕਿ ਇਹ ਕੁਸ਼ਲਤਾ ਲਈ ਅਧਿਕਾਰ ਨੂੰ ਕੇਂਦਰੀਕਰਨ ਕਰਦਾ ਹੈ, ਇਹ ਕੇਂਦਰੀਕ੍ਰਿਤ ਸ਼ਕਤੀ ਅਤੇ ਤਕਨੀਕੀ ਜਾਂ ਨੈਤਿਕ ਫੈਸਲਿਆਂ ਵਿੱਚ ਸੰਭਾਵੀ ਰਾਜਨੀਤਕ ਦਖਲਅੰਦਾਜ਼ੀ ਬਾਰੇ ਵੀ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦਾ ਹੈ। **Impact**: ਗਾਈਡਲਾਈਨਜ਼ ਦਾ ਉਦੇਸ਼ ਇੱਕ ਸਪੱਸ਼ਟ, ਭਾਵੇਂ ਸਵੈ-ਇੱਛੁਕ, ਰੈਗੂਲੇਟਰੀ ਦਿਸ਼ਾ ਪ੍ਰਦਾਨ ਕਰਕੇ ਭਾਰਤ ਦੇ AI ਸੈਕਟਰ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ ਹੈ। ਇਹ AI ਤਕਨਾਲੋਜੀਆਂ ਵਿੱਚ ਨਿਵੇਸ਼ ਅਤੇ ਵਿਕਾਸ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰ ਸਕਦਾ ਹੈ, ਪਰ ਲਾਜ਼ਮੀ ਲਾਗੂ ਕਰਨ ਦੀ ਘਾਟ ਕਾਰਨ ਸਖ਼ਤ ਨਿਯਮਾਂ ਵਾਲੇ ਦੇਸ਼ਾਂ ਦੇ ਮੁਕਾਬਲੇ ਮਜ਼ਬੂਤ ਸੁਰੱਖਿਆ ਅਤੇ ਨੈਤਿਕ ਮਾਪਦੰਡਾਂ ਨੂੰ ਅਪਣਾਉਣ ਵਿੱਚ ਦੇਰੀ ਹੋ ਸਕਦੀ ਹੈ। ਢਾਂਚੇ ਦੀ ਸਫਲਤਾ ਉਦਯੋਗ ਦੀ ਸਹਿਮਤੀ ਅਤੇ AI ਨੁਕਸਾਨਾਂ ਨੂੰ ਨਜਿੱਠਣ ਵਿੱਚ ਮੌਜੂਦਾ ਕਾਨੂੰਨਾਂ ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ 'ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰੇਗੀ। Impact Rating: 6/10. **Terms and Meanings**: * **Light-touch approach**: ਇੱਕ ਰੈਗੂਲੇਟਰੀ ਰਣਨੀਤੀ ਜਿਸ ਵਿੱਚ ਘੱਟੋ-ਘੱਟ ਸਰਕਾਰੀ ਦਖਲਅੰਦਾਜ਼ੀ ਸ਼ਾਮਲ ਹੁੰਦੀ ਹੈ, ਜੋ ਸਖ਼ਤ ਨਿਯਮਾਂ ਦੀ ਬਜਾਏ ਸਵੈ-ਨਿਯਮ ਅਤੇ ਉਦਯੋਗ-ਅਗਵਾਈ ਪਹਿਲਕਦਮੀਆਂ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੀ ਹੈ। * **Voluntary industry commitments**: ਕਿਸੇ ਖਾਸ ਖੇਤਰ ਦੀਆਂ ਕੰਪਨੀਆਂ ਦੁਆਰਾ ਕੁਝ ਮਾਪਦੰਡਾਂ ਜਾਂ ਅਭਿਆਸਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨ ਲਈ ਕੀਤੇ ਗਏ ਵਾਅਦੇ ਜਾਂ ਪ੍ਰਣ, ਬਿਨਾਂ ਕਿਸੇ ਕਾਨੂੰਨੀ ਜ਼ਿੰਮੇਵਾਰੀ ਦੇ। * **Embedded accountability**: ਸਿਸਟਮਾਂ ਅਤੇ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਇਸ ਤਰ੍ਹਾਂ ਡਿਜ਼ਾਈਨ ਕਰਨਾ ਕਿ ਨਤੀਜਿਆਂ ਲਈ ਜਵਾਬਦੇਹੀ ਸਿੱਧੇ ਉਨ੍ਹਾਂ ਵਿੱਚ ਬਣਾਈ ਗਈ ਹੋਵੇ, ਨਾ ਕਿ ਸਿਰਫ਼ ਬਾਹਰੀ ਨਿਗਰਾਨੀ ਜਾਂ ਸਜ਼ਾ 'ਤੇ ਨਿਰਭਰ ਹੋਵੇ। * **Human oversight**: ਇਹ ਸਿਧਾਂਤ ਕਿ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮਾਂ 'ਤੇ ਮਨੁੱਖੀ ਨਿਰਣੇ ਅਤੇ ਨਿਯੰਤਰਣ ਬਣਾਈ ਰੱਖਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਮਹੱਤਵਪੂਰਨ ਫੈਸਲਿਆਂ ਲਈ। * **Black box problem**: AI ਸਿਸਟਮਾਂ ਦੇ ਅੰਦਰੂਨੀ ਕਾਰਜਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਅਪਾਰਦਰਸ਼ੀ ਜਾਂ ਸਮਝਣ ਵਿੱਚ ਮੁਸ਼ਕਲ ਹੁੰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਉਨ੍ਹਾਂ ਦੇ ਫੈਸਲਿਆਂ ਦੀ ਵਿਆਖਿਆ ਕਰਨਾ ਜਾਂ ਗਲਤੀਆਂ ਦੀ ਪਛਾਣ ਕਰਨਾ ਚੁਣੌਤੀਪੂਰਨ ਹੋ ਜਾਂਦਾ ਹੈ। * **Algorithmic discrimination**: ਅਲਗੋਰਿਦਮ ਦੇ ਨਤੀਜਿਆਂ ਕਾਰਨ ਵਿਅਕਤੀਆਂ ਜਾਂ ਸਮੂਹਾਂ ਨਾਲ ਅਨੁਚਿਤ ਜਾਂ ਪੱਖਪਾਤੀ ਵਿਵਹਾਰ, ਜੋ ਅਕਸਰ ਪੱਖਪਾਤੀ ਡਾਟਾ ਜਾਂ ਖਰਾਬ ਡਿਜ਼ਾਈਨ ਕਾਰਨ ਹੁੰਦਾ ਹੈ। * **Deepfakes**: ਸੰਸ਼ਲੇਸ਼ਿਤ ਤੌਰ 'ਤੇ ਬਣਾਈ ਗਈ ਮੀਡੀਆ (ਤਸਵੀਰਾਂ, ਵੀਡੀਓ, ਆਡੀਓ) ਜੋ ਅਜਿਹੀਆਂ ਘਟਨਾਵਾਂ ਨੂੰ ਦਰਸਾਉਂਦੀਆਂ ਹਨ ਜੋ ਅਸਲ ਵਿੱਚ ਨਹੀਂ ਵਾਪਰੀਆਂ, ਅਕਸਰ AI ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਬਣਾਈਆਂ ਜਾਂਦੀਆਂ ਹਨ, ਅਤੇ ਬਦਨੀਤੀ ਵਾਲੇ ਉਦੇਸ਼ਾਂ ਲਈ ਵਰਤੀਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ।