Tech
|
Updated on 07 Nov 2025, 02:01 pm
Reviewed By
Aditi Singh | Whalesbook News Team
▶
ਲੋਜੀਟੈਕ ਸੀਈਓ ਹੈਨਕੇ ਫੇਬਰ ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ ਕਾਰਪੋਰੇਟ ਬੋਰਡਰੂਮਾਂ ਵਿੱਚ AI ਏਜੰਟਾਂ ਨੂੰ ਫੈਸਲਾ ਲੈਣ ਵਾਲੇ ਵਜੋਂ ਸ਼ਾਮਲ ਕਰਨ ਦਾ ਪ੍ਰਸਤਾਵ ਦਿੱਤਾ ਹੈ, ਜਿਸ ਨੇ ਤਿੱਖੀ ਬਹਿਸ ਦੀ ਬਜਾਏ ਸ਼ਾਂਤ ਵਿਚਾਰ-ਵਟਾਂਦਰਾ ਪੈਦਾ ਕੀਤਾ ਹੈ। ਇਹ ਮੁੱਖ ਤੌਰ 'ਤੇ ਜਵਾਬਦੇਹੀ (accountability) ਦੇ ਆਲੇ-ਦੁਆਲੇ ਮਹੱਤਵਪੂਰਨ ਗਵਰਨੈਂਸ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਮਨੁੱਖੀ ਡਾਇਰੈਕਟਰਾਂ ਦੇ ਉਲਟ, ਜੋ ਫਿਡਿਊਸ਼ੀਅਰੀ ਡਿਊਟੀਜ਼ (fiduciary duties) ਅਤੇ ਕਾਨੂੰਨੀ ਨਤੀਜਿਆਂ ਦੇ ਅਧੀਨ ਹੁੰਦੇ ਹਨ, ਇੱਕ AI ਅਲਗੋਰਿਦਮ 'ਤੇ ਗਲਤ ਫੈਸਲਿਆਂ ਲਈ ਮੁਕੱਦਮਾ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਜਾਂ ਜ਼ਿੰਮੇਵਾਰ ਨਹੀਂ ਠਹਿਰਾਇਆ ਜਾ ਸਕਦਾ। ਦੇਣਦਾਰੀ (liability) ਦਾ ਸਵਾਲ ਜਟਿਲ ਹੈ: ਜੇਕਰ AI-ਚਾਲਿਤ ਫੈਸਲੇ ਕਾਰਨ ਵਿਤਕਰੀ ਹੁੰਦੀ ਹੈ, ਉਦਾਹਰਨ ਲਈ, ਕੁਝ ਕਰਮਚਾਰੀ ਸਮੂਹਾਂ 'ਤੇ ਅਸਾਧਾਰਨ ਤੌਰ 'ਤੇ ਅਸਰ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਜ਼ਿੰਮੇਵਾਰੀ ਕਿਸ 'ਤੇ ਆਵੇਗੀ? ਭਾਰਤੀ ਰੈਗੂਲੇਟਰ AI ਗਵਰਨੈਂਸ ਨੂੰ ਸੰਬੋਧਨ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਰਹੇ ਹਨ, ਸੇਬੀ ਦੇ AI ਗਵਰਨੈਂਸ ਫਰੇਮਵਰਕ ਵਰਗੇ ਢਾਂਚੇ ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਬਿੰਦੂ ਪ੍ਰਦਾਨ ਕਰਨ ਦਾ ਟੀਚਾ ਰੱਖਦੇ ਹਨ, ਹਾਲਾਂਕਿ ਬੋਰਡ-ਪੱਧਰੀ ਫੈਸਲਾ ਲੈਣ ਵਿੱਚ AI ਲਈ ਵਿਸ਼ੇਸ਼ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਅਜੇ ਸ਼ੁਰੂਆਤੀ ਪੜਾਅ 'ਤੇ ਹਨ.
ਇੱਕ ਹੋਰ ਵੱਡਾ ਮੁੱਦਾ ਅਪਾਰਦਰਸ਼ਤਾ (opacity) ਹੈ; ਇਹ ਸਮਝਣਾ ਕਿ ਜਟਿਲ ਅਲਗੋਰਿਦਮ ਆਪਣੀਆਂ ਸਿਫ਼ਾਰਸ਼ਾਂ ਤੱਕ ਕਿਵੇਂ ਪਹੁੰਚਦੇ ਹਨ, ਮਨੁੱਖੀ ਤਰਕ ਦੀ ਤੁਲਨਾ ਵਿੱਚ ਚੁਣੌਤੀਪੂਰਨ ਹੈ, ਜੋ ਸੂਚਿਤ ਫੈਸਲਾ ਲੈਣ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾਉਂਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਜੇਕਰ AI ਨੂੰ ਇਤਿਹਾਸਕ ਡਾਟੇ 'ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ ਜਿਸ ਵਿੱਚ ਵਿਤਕਰੀਪੂਰਨ ਪੈਟਰਨ ਹੁੰਦੇ ਹਨ, ਤਾਂ ਇਹ ਪੱਖਪਾਤ (bias) ਨੂੰ ਵਧਾ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਦੇਖਣ ਵਿੱਚ ਵਸਤੂਨਿਸ਼ਠ ਪਰ ਨੁਕਸਾਨਦੇਹ ਨਤੀਜੇ ਨਿਕਲ ਸਕਦੇ ਹਨ। ਇਹਨਾਂ ਜਟਿਲਤਾਵਾਂ ਨੂੰ ਦੂਰ ਕਰਨ ਲਈ, ਕੁਝ ਬੋਰਡ AI ਨੈਤਿਕ ਸਲਾਹਕਾਰਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰ ਰਹੇ ਹਨ.
ਮੁੱਖ ਬਹਿਸ AI ਨੂੰ ਜਾਣਕਾਰੀ ਪ੍ਰੋਸੈਸਿੰਗ ਲਈ ਇੱਕ ਸਾਧਨ ਮੰਨਣ ਜਾਂ ਫੈਸਲਾ ਲੈਣ ਦੇ ਅਧਿਕਾਰ ਵਾਲੇ ਭਾਗੀਦਾਰ ਵਜੋਂ ਮੰਨਣ ਵਿਚਕਾਰ ਹੈ। ਗਵਰਨੈਂਸ ਵਿੱਚ ਮਨੁੱਖੀ ਜਵਾਬਦੇਹੀ ਦੀ ਲੋੜ ਨੂੰ ਦੇਖਦੇ ਹੋਏ, ਹਮਾਇਤੀ ਦਲੀਲ ਦਿੰਦੇ ਹਨ ਕਿ AI ਨੂੰ ਮਨੁੱਖੀ ਡਾਇਰੈਕਟਰਾਂ ਦੀ ਸਹਾਇਤਾ ਕਰਨ ਵਾਲਾ ਇੱਕ ਸਾਧਨ ਹੀ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ, ਨਾ ਕਿ ਵੋਟਿੰਗ ਮੈਂਬਰ ਬਣ ਜਾਵੇ। ਗਵਰਨੈਂਸ ਵਿੱਚ ਅਸਫਲਤਾਵਾਂ ਲਈ ਕੋਈ ਜਵਾਬਦੇਹ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਜੋ ਕਿ AI ਕੋਲ ਨਹੀਂ ਹੈ। ਚੰਗੀ ਗਵਰਨੈਂਸ ਦਾ ਅਸਲ ਮਾਪ ਗਤੀ ਜਾਂ ਕੁਸ਼ਲਤਾ ਨਹੀਂ ਹੈ, ਬਲਕਿ ਵਿਚਾਰ-ਵਟਾਂਦਰਾ, ਅਸਹਿਮਤੀ ਅਤੇ ਹਿੱਸੇਦਾਰਾਂ ਦੇ ਪ੍ਰਭਾਵਾਂ 'ਤੇ ਸਾਵਧਾਨੀ ਨਾਲ ਵਿਚਾਰ ਕਰਨਾ ਹੈ, ਇਹੋ ਜਿਹੇ ਤੱਤ ਜਿਨ੍ਹਾਂ ਨੂੰ AI ਦੁਹਰਾ ਨਹੀਂ ਸਕਦਾ.
ਪ੍ਰਭਾਵ: ਕਾਰਪੋਰੇਟ ਫੈਸਲਾ ਲੈਣ ਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ AI ਦਾ ਏਕੀਕਰਨ ਵਿਸ਼ਵ ਪੱਧਰ 'ਤੇ, ਭਾਰਤ ਵਿੱਚ ਵੀ, ਜੋਖਮ ਮੁਲਾਂਕਣ, ਰਣਨੀਤਕ ਯੋਜਨਾਬੰਦੀ ਅਤੇ ਰੈਗੂਲੇਟਰੀ ਪਾਲਣਾ ਨੂੰ ਮੁੜ ਆਕਾਰ ਦੇ ਸਕਦਾ ਹੈ। ਇਸ ਨਾਲ ਜਾਂਚ ਵਧ ਸਕਦੀ ਹੈ, ਨਵੇਂ ਗਵਰਨੈਂਸ ਢਾਂਚੇ ਬਣ ਸਕਦੇ ਹਨ ਅਤੇ ਰਣਨੀਤਕ ਭੂਮਿਕਾਵਾਂ ਵਿੱਚ AI ਨੂੰ ਹਮਲਾਵਰ ਢੰਗ ਨਾਲ ਅਪਣਾਉਣ ਵਾਲੀਆਂ ਕੰਪਨੀਆਂ ਲਈ ਨਿਵੇਸ਼ਕ ਭਾਵਨਾ ਵਿੱਚ ਸੰਭਾਵੀ ਬਦਲਾਅ ਆ ਸਕਦੇ ਹਨ। ਰੇਟਿੰਗ: 7/10.
ਔਖੇ ਸ਼ਬਦ: ਫਿਡਿਊਸ਼ੀਅਰੀ ਡਿਊਟੀ (Fiduciary Duty): ਦੋ ਜਾਂ ਦੋ ਤੋਂ ਵੱਧ ਧਿਰਾਂ ਵਿਚਕਾਰ ਵਿਸ਼ਵਾਸ ਦਾ ਕਾਨੂੰਨੀ ਜਾਂ ਨੈਤਿਕ ਰਿਸ਼ਤਾ, ਜਿੱਥੇ ਇੱਕ ਧਿਰ ਦਾ ਦੂਜੀ ਧਿਰ ਦੇ ਸਰਵੋਤਮ ਹਿੱਤ ਵਿੱਚ ਕੰਮ ਕਰਨ ਦਾ ਫ਼ਰਜ਼ ਹੁੰਦਾ ਹੈ। ਅਪਾਰਦਰਸ਼ਤਾ (Opacity): ਦੇਖਣ ਜਾਂ ਸਮਝਣ ਵਿੱਚ ਅਸੰਭਵ ਹੋਣ ਦਾ ਗੁਣ; ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਕਮੀ। ਪੱਖਪਾਤ (Bias): ਕਿਸੇ ਚੀਜ਼, ਵਿਅਕਤੀ, ਜਾਂ ਸਮੂਹ ਦੇ ਪੱਖ ਵਿੱਚ ਜਾਂ ਵਿਰੁੱਧ ਪੂਰਵ-ਗ੍ਰਹਿ, ਜੋ ਆਮ ਤੌਰ 'ਤੇ ਅਨਿਆਂਪੂਰਨ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। AI ਵਿੱਚ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਅਲਗੋਰਿਦਮ ਸਿਖਲਾਈ ਡਾਟੇ ਵਿੱਚ ਮੌਜੂਦ ਸਮਾਜਿਕ ਪੱਖਪਾਤ ਨੂੰ ਪ੍ਰਤੀਬਿੰਬਤ ਅਤੇ ਵਧਾ ਸਕਦੇ ਹਨ। ਅਲਗੋਰਿਦਮ (Algorithm): ਕੋਈ ਸਮੱਸਿਆ ਹੱਲ ਕਰਨ ਜਾਂ ਕੋਈ ਕੰਮ ਕਰਨ ਲਈ ਕੰਪਿਊਟਰ ਦੁਆਰਾ ਅਪਣਾਏ ਗਏ ਨਿਯਮਾਂ ਜਾਂ ਨਿਰਦੇਸ਼ਾਂ ਦਾ ਸਮੂਹ। ਗਵਰਨੈਂਸ ਫਰੇਮਵਰਕ (Governance Framework): ਨਿਯਮਾਂ, ਅਭਿਆਸਾਂ ਅਤੇ ਪ੍ਰਕਿਰਿਆਵਾਂ ਦਾ ਇੱਕ ਸਮੂਹ ਜਿਸ ਦੁਆਰਾ ਇੱਕ ਕੰਪਨੀ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਅਤੇ ਨਿਯੰਤਰਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਹਿੱਸੇਦਾਰ (Stakeholder): ਕੋਈ ਵੀ ਵਿਅਕਤੀ, ਸਮੂਹ, ਜਾਂ ਸੰਸਥਾ ਜੋ ਕਿਸੇ ਸੰਸਥਾ ਦੇ ਕੰਮਾਂ, ਉਦੇਸ਼ਾਂ ਅਤੇ ਨੀਤੀਆਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦਾ ਹੈ ਜਾਂ ਉਸ ਤੋਂ ਪ੍ਰਭਾਵਿਤ ਹੋ ਸਕਦਾ ਹੈ।