ਗਵਰਨੈਂਸ ਅਤੇ AI ਦਾ ਟਕਰਾਅ: ਕਾਨੂੰਨੀ ਹਕੀਕਤ ਸਾਹਮਣੇ ਆਈ
ਇਸ ਵਾਰ ਗਲੋਬਲ AI (Artificial Intelligence) ਦੇ ਉਤਸ਼ਾਹ ਅਤੇ ਦੇਸ਼ ਦੀਆਂ ਅਦਾਲਤਾਂ ਦੀ ਚਿੰਤਾ ਇੱਕ ਦੂਜੇ ਦੇ ਸਾਹਮਣੇ ਆ ਖੜ੍ਹੀ ਹੋਈ। 17 ਫਰਵਰੀ 2026 ਨੂੰ, ਜਿੱਥੇ 88 ਦੇਸ਼ ਭਾਰਤ ਵਿੱਚ AI ਗਵਰਨੈਂਸ (AI Governance) 'ਤੇ ਵਿਚਾਰ-ਵਟਾਂਦਰਾ ਕਰ ਰਹੇ ਸਨ, ਉੱਥੇ ਹੀ ਭਾਰਤ ਦੀ ਸੁਪਰੀਮ ਕੋਰਟ (Supreme Court) ਨੇ ਇੱਕ ਗੰਭੀਰ ਸਮੱਸਿਆ ਵੱਲ ਇਸ਼ਾਰਾ ਕੀਤਾ: ਕਾਨੂੰਨੀ ਪ੍ਰਣਾਲੀ ਵਿੱਚ AI ਦੁਆਰਾ ਬਣਾਏ ਜਾ ਰਹੇ ਨਕਲੀ ਕਾਨੂੰਨੀ ਮਾਮਲੇ। ਅਦਾਲਤ ਨੇ ਇਸ 'ਖਤਰਨਾਕ' ਰੁਝਾਨ 'ਤੇ ਚਿੰਤਾ ਜਤਾਈ ਹੈ ਜਿੱਥੇ AI ਟੂਲਜ਼ ਨਕਲੀ ਫੈਸਲੇ ਅਤੇ ਕੇਸ ਸਾਈਟੇਸ਼ਨ (case citations) ਤਿਆਰ ਕਰ ਰਹੇ ਹਨ, ਜਿਵੇਂ ਕਿ 'Mercy vs Mankind' ਨਾਂ ਦਾ ਕੋਈ ਕੇਸ ਮੌਜੂਦ ਹੀ ਨਹੀਂ ਹੈ। ਇਹਨਾਂ ਨਕਲੀ ਹਵਾਲਿਆਂ ਨੇ ਜੱਜਾਂ 'ਤੇ ਬੇਸਿਕ ਕਾਨੂੰਨੀ ਜਾਣਕਾਰੀ ਨੂੰ ਵੀ ਵੈਰੀਫਾਈ (verify) ਕਰਨ ਦਾ 'ਵਾਧੂ ਬੋਝ' ਪਾ ਦਿੱਤਾ ਹੈ। ਪਿਛਲੇ ਸਾਲ ਦਸੰਬਰ 2025 ਵਿੱਚ ਵੀ ਬੰਬੇ ਹਾਈ ਕੋਰਟ (Bombay High Court) ਦੁਆਰਾ ਅਜਿਹੇ ਨਕਲੀ ਕੇਸ ਸਾਈਟੇਸ਼ਨਾਂ 'ਤੇ ਸਜ਼ਾ ਦੇਣ ਵਰਗੇ ਘਟਨਾਵਾਂ ਤੋਂ ਬਾਅਦ ਅਦਾਲਤਾਂ ਨੇ ਆਪਣੀਆਂ ਚੇਤਾਵਨੀਆਂ ਵਧਾ ਦਿੱਤੀਆਂ ਹਨ। ਇਹ ਸਭ ਕੁਝ AI ਦੀ ਕਾਨੂੰਨੀ ਕੰਮ ਵਿੱਚ ਕੁਸ਼ਲਤਾ ਵਧਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਤੋਂ ਅੱਗੇ ਵੱਧ ਕੇ, ਇਸਦੀ ਗੰਭੀਰ ਗਲਤੀਆਂ ਅਤੇ "ਮਸ਼ੀਨ ਹੈਲੂਸੀਨੇਸ਼ਨ" (machine hallucination) ਵਰਗੀਆਂ ਸਮੱਸਿਆਵਾਂ ਵੱਲ ਇਸ਼ਾਰਾ ਕਰਦਾ ਹੈ।
ਬਾਜ਼ਾਰ 'ਤੇ ਅਸਰ ਅਤੇ ਬਦਲਦੇ ਮੁੱਲਾਂਕਣ (Valuations)
ਅਦਾਲਤਾਂ ਵੱਲੋਂ ਵਧ ਰਹੀ ਇਹ ਜਾਂਚ-ਪੜਤਾਲ, AI ਲੀਗਲ ਟੈਕ ਪ੍ਰੋਵਾਈਡਰਜ਼ (AI Legal Tech providers) ਦੇ ਵਿੱਤੀ ਭਵਿੱਖ 'ਤੇ ਸਿੱਧਾ ਅਸਰ ਪਾ ਰਹੀ ਹੈ। ਦੁਨੀਆ ਭਰ ਦਾ ਲੀਗਲ ਟੈਕ ਮਾਰਕੀਟ (Legal Tech Market), ਜਿਸਦਾ 2026 ਤੱਕ $30 ਤੋਂ $50 ਬਿਲੀਅਨ ਤੱਕ ਪਹੁੰਚਣ ਦਾ ਅਨੁਮਾਨ ਹੈ, ਅਤੇ ਜਿਸ ਵਿੱਚ AI-ਆਧਾਰਿਤ ਹੱਲਾਂ ਦਾ ਹਿੱਸਾ 15-20% CAGR (ਸਾਲਾਨਾ ਵਿਕਾਸ ਦਰ) ਨਾਲ ਤੇਜ਼ੀ ਨਾਲ ਵੱਧ ਰਿਹਾ ਹੈ, ਹੁਣ ਵਧਦੀਆਂ ਚੁਣੌਤੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਿਹਾ ਹੈ। ਖਾਸ ਤੌਰ 'ਤੇ, AI ਇਨ ਲਾ ਮਾਰਕੀਟ (AI in Law market) ਦਾ ਵਿਕਾਸ, ਜਿਸਦਾ ਅਨੁਮਾਨ 25-30% CAGR ਲਗਾਇਆ ਗਿਆ ਹੈ, ਹੁਣ ਭਰੋਸਾ ਘਟਣ ਕਾਰਨ ਹੌਲੀ ਹੋ ਸਕਦਾ ਹੈ। 2024 ਵਿੱਚ AI ਲੀਗਲ ਟੈਕ ਸਟਾਰਟਅੱਪਸ (startups) ਵਿੱਚ ਲਗਭਗ $500 ਮਿਲੀਅਨ ਤੋਂ $1 ਬਿਲੀਅਨ ਦਾ ਵੈਂਚਰ ਕੈਪੀਟਲ (Venture Capital) ਫੰਡਿੰਗ ਹੋਇਆ ਸੀ, ਜੋ ਹੁਣ ਹੋਰ ਚੋਣਵੇਂ (selective) ਹੋ ਸਕਦਾ ਹੈ। ਨਿਵੇਸ਼ਕ (Investors) ਉਨ੍ਹਾਂ ਪਲੇਟਫਾਰਮਾਂ ਨੂੰ ਤਰਜੀਹ ਦੇਣਗੇ ਜੋ ਆਪਣੀ ਉਤਪੰਨ ਸਮਰੱਥਾਵਾਂ (generative capabilities) ਨਾਲੋਂ ਸਖ਼ਤ ਸ਼ੁੱਧਤਾ (accuracy), ਪਾਰਦਰਸ਼ਤਾ (transparency) ਅਤੇ ਪਾਲਣਾ (compliance) ਦੇ ਤਰੀਕਿਆਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦੇ ਹਨ। ਕੰਪਨੀਆਂ ਨੂੰ AI ਹੈਲੂਸੀਨੇਸ਼ਨ (AI hallucinations) ਨੂੰ ਘੱਟ ਕਰਨ ਲਈ R&D (ਖੋਜ ਅਤੇ ਵਿਕਾਸ) ਵਿੱਚ ਵਧੇਰੇ ਨਿਵੇਸ਼ ਕਰਨਾ ਪਵੇਗਾ, ਜਿਸ ਨਾਲ ਵਿਕਾਸ ਲਾਗਤਾਂ (development costs) 10-15% ਤੱਕ ਵੱਧ ਸਕਦੀਆਂ ਹਨ, ਜੋ ਮੁਨਾਫੇ (profit margins) ਅਤੇ ਕੁੱਲ ਮੁੱਲ (valuations) ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰੇਗਾ।
ਰੈਗੂਲੇਟਰੀ (Regulatory) ਚੁਣੌਤੀਆਂ ਦਾ ਸਾਹਮਣਾ
ਮੌਜੂਦਾ ਕਾਨੂੰਨੀ ਢਾਂਚਾ AI ਦੇ ਏਕੀਕਰਨ (integration) ਨਾਲ ਤਾਲਮੇਲ ਬਿਠਾਉਣ ਲਈ ਸੰਘਰਸ਼ ਕਰ ਰਿਹਾ ਹੈ। ਭਾਰਤ ਦੀ ਬਾਰ ਕੌਂਸਲ (Bar Council of India) ਦੇ ਪੇਸ਼ੇਵਰ ਆਚਰਣ (professional conduct) ਦੇ ਨਿਯਮ ਲਾਰਜ ਲੈਂਗੂਏਜ ਮਾਡਲਜ਼ (Large Language Models) ਤੋਂ ਪਹਿਲਾਂ ਦੇ ਹਨ, ਜੋ AI ਨੂੰ ਕੰਮ ਸੌਂਪਣ ਬਾਰੇ ਕੋਈ ਖਾਸ ਮਾਰਗਦਰਸ਼ਨ ਨਹੀਂ ਦਿੰਦੇ, ਜਦੋਂ ਕਿ ਹੁਣ ਯੋਗਤਾ (competence) ਦਾ ਫਰਜ਼ ਹੈ ਕਿ ਵਕੀਲ AI-ਸਰੋਤ ਅਥਾਰਿਟੀਜ਼ (AI-sourced authorities) ਨੂੰ ਸੁਤੰਤਰ ਤੌਰ 'ਤੇ ਵੈਰੀਫਾਈ ਕਰਨ। ਇਹ ਹੋਰ ਸਰਗਰਮ ਅਧਿਕਾਰ ਖੇਤਰਾਂ ਦੇ ਉਲਟ ਹੈ; ਅਮਰੀਕੀ ਬਾਰ ਐਸੋਸੀਏਸ਼ਨ (American Bar Association) ਦੇ Formal Opinion 512 (ਜੁਲਾਈ 2024) ਨੇ ਵਕੀਲਾਂ ਨੂੰ AI ਟੂਲਜ਼ ਨਾਲ ਯੋਗਤਾ, ਗੁਪਤਤਾ (confidentiality) ਅਤੇ ਨਿਗਰਾਨੀ (supervision) ਬਣਾਈ ਰੱਖਣ ਦੀ ਲੋੜ ਹੈ, ਜਦੋਂ ਕਿ ਇੰਗਲੈਂਡ ਅਤੇ ਵੇਲਜ਼ ਦੀ ਬਾਰ ਕੌਂਸਲ (Bar Council of England and Wales) ਨੇ ਨਵੰਬਰ 2025 ਵਿੱਚ AI ਦੇ ਦੁਰਵਿਵਹਾਰ ਵਿਰੁੱਧ ਸਪੱਸ਼ਟ ਚੇਤਾਵਨੀ ਦੇਣ ਲਈ ਆਪਣੀ ਮਾਰਗਦਰਸ਼ਨ ਅਪਡੇਟ ਕੀਤੀ। ਭਾਰਤ ਦੇ ਲੀਗਲ ਟੈਕ ਸੈਕਟਰ (Legal Tech Sector) ਨੂੰ ਹੁਣ ਇੱਕ ਰੈਗੂਲੇਟਰੀ ਖਾਲੀਪਨ (regulatory vacuum) ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਰਿਹਾ ਹੈ, ਜਿੱਥੇ ਅਦਾਲਤਾਂ ਸਪੱਸ਼ਟ ਪੇਸ਼ੇਵਰ ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਬਜਾਏ ਚੇਤਾਵਨੀਆਂ ਰਾਹੀਂ ਦਖਲ ਦੇ ਰਹੀਆਂ ਹਨ। ਪਾਲਣਾ ਕਰਨ ਵਾਲੇ AI ਹੱਲਾਂ ਨੂੰ ਵਿਕਸਤ ਕਰਨ ਲਈ ਵਿਕਸਤ ਹੋ ਰਹੇ ਡਾਟਾ ਪ੍ਰਾਈਵੇਸੀ (data privacy) ਕਾਨੂੰਨਾਂ ਨੂੰ ਸਮਝਣਾ ਅਤੇ ਮਜ਼ਬੂਤ ਗਵਰਨੈਂਸ ਸਥਾਪਤ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ, ਜੋ ਭਾਰਤ ਵਿੱਚ ਕੰਮ ਕਰਨ ਵਾਲੀਆਂ ਕੰਪਨੀਆਂ ਲਈ ਮਹੱਤਵਪੂਰਨ ਪਾਲਣਾ ਲਾਗਤਾਂ (compliance costs) ਜੋੜਦਾ ਹੈ। IndiaAI Safety Institute ਦਾ AI ਸੁਰੱਖਿਆ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਲਈ ਬੈਂਚਮਾਰਕ ਵਿਕਸਤ ਕਰਨ ਦਾ ਕੰਮ, ਉਦਯੋਗਿਕ ਮਿਆਰ (industry standards) ਸਥਾਪਤ ਕਰਨ ਵੱਲ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਕਦਮ ਹੈ, ਪਰ ਪੇਸ਼ੇਵਰ ਸੰਸਥਾਵਾਂ ਤੋਂ ਲਾਗੂ ਕਰਨ ਯੋਗ ਮਾਰਗਦਰਸ਼ਨ ਅਜੇ ਵੀ ਸ਼ੁਰੂਆਤੀ ਪੜਾਅ 'ਤੇ ਹੈ।
ਸੰਭਾਵੀ ਨੁਕਸਾਨ: ਹੈਲੂਸੀਨੇਸ਼ਨ ਅਤੇ ਕਾਰਜਕਾਰੀ ਜੋਖਮ (Operational Risks)
AI ਲੀਗਲ ਟੈਕ ਕੰਪਨੀਆਂ (AI Legal Tech companies) ਲਈ ਤਤਕਾਲ ਜੋਖਮ (immediate risk) ਉਨ੍ਹਾਂ ਦੀ ਪ੍ਰਤਿਸ਼ਠਾ (reputational damage) ਨੂੰ ਨੁਕਸਾਨ ਅਤੇ ਗਾਹਕਾਂ ਦੇ ਭਰੋਸੇ ਦਾ ਖਾਤਮਾ ਹੈ। ਕਾਨੂੰਨੀ ਫਰਮਾਂ (law firms) ਲਈ ਕਾਰਜਕਾਰੀ ਲਾਗਤਾਂ (operational costs) AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਦੀ ਧਿਆਨਪੂਰਵਕ ਵੈਰੀਫਿਕੇਸ਼ਨ (verification) ਦੀ ਲੋੜ ਕਾਰਨ 5-10% ਤੱਕ ਵਧਣ ਦਾ ਅਨੁਮਾਨ ਹੈ। AI ਗਲਤੀਆਂ ਤੋਂ ਪੈਦਾ ਹੋਣ ਵਾਲੇ ਮਾਲਪ੍ਰੈਕਟਿਸ (malpractice) ਦੇ ਦਾਅਵੇ ਇੱਕ ਵੱਡਾ ਦੇਣਦਾਰੀ (liability) ਪੇਸ਼ ਕਰਦੇ ਹਨ। ਸਥਾਪਿਤ ਖਿਡਾਰੀਆਂ (established players) ਦੇ ਉਲਟ ਜਿਨ੍ਹਾਂ ਦੇ ਕੋਲ ਡੂੰਘੇ ਕਿਊਰੇਟਿਡ ਡਾਟਾਬੇਸ (curated databases) ਹਨ, ਨਵੇਂ ਜਨਰੇਟਿਵ AI ਸਟਾਰਟਅੱਪਸ (generative AI startups) ਵਿੱਚ ਅੰਦਰੂਨੀ ਡਾਟਾ ਅਖੰਡਤਾ (data integrity) ਅਤੇ ਡੋਮੇਨ ਮਹਾਰਤ (domain expertise) ਦੀ ਘਾਟ ਹੋ ਸਕਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਉਹ ਖਾਮੀਆਂ ਵਾਲੇ ਆਉਟਪੁੱਟ ਤਿਆਰ ਕਰਨ ਦੇ ਜ਼ਿਆਦਾ ਸੰਵੇਦਨਸ਼ੀਲ (vulnerable) ਹੋ ਜਾਂਦੇ ਹਨ ਜੋ ਗੰਭੀਰ ਪੇਸ਼ੇਵਰ ਲਾਪਰਵਾਹੀ (professional negligence) ਵੱਲ ਲੈ ਜਾ ਸਕਦੇ ਹਨ। ਇਹ ਸਥਿਤੀ ਉਨ੍ਹਾਂ ਫਰਮਾਂ ਲਈ ਮੁਕਾਬਲੇਬਾਜ਼ੀ ਦਾ ਨੁਕਸਾਨ (competitive disadvantage) ਪੈਦਾ ਕਰਦੀ ਹੈ ਜੋ ਉੱਨਤ AI ਨਿਗਰਾਨੀ (AI oversight) ਦੀਆਂ ਲਾਗਤਾਂ ਨੂੰ ਸਹਿਣ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ ਜਾਂ ਅਤਿ-ਆਧੁਨਿਕ ਵੈਰੀਫਿਕੇਸ਼ਨ ਟੈਕਨੋਲੋਜੀ (verification technologies) ਵਿੱਚ ਨਿਵੇਸ਼ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ। ਇਸ ਤੋਂ ਇਲਾਵਾ, AI ਦੀ ਪ੍ਰਣਾਲੀਗਤ ਨੁਕਸਾਨ (systemic harm) ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ, ਖਾਸ ਕਰਕੇ ਨਿਆਂ ਤੱਕ ਪਹੁੰਚ (access-to-justice) ਟੂਲਜ਼ ਵਿੱਚ, ਸੰਬੋਧਿਤ ਕਰਨ ਵਿੱਚ ਕੋਈ ਵੀ ਅਸਫਲਤਾ, ਮੌਜੂਦਾ ਸਮਾਜਿਕ ਅਸਮਾਨਤਾਵਾਂ (societal inequities) ਨੂੰ ਵਧਾ ਸਕਦੀ ਹੈ ਅਤੇ ਡੂੰਘੇ ਸੰਸਥਾਗਤ ਸੰਕਟ (institutional crises) ਪੈਦਾ ਕਰ ਸਕਦੀ ਹੈ।
ਭਵਿੱਖ ਦਾ ਦ੍ਰਿਸ਼ਟੀਕੋਣ: ਵੈਰੀਫਾਈਬਲ (Verifiable) ਲੀਗਲ AI ਵੱਲ
ਕਾਨੂੰਨੀ ਪ੍ਰੋਫੈਸ਼ਨ (legal profession) ਵਿੱਚ AI ਲਈ ਅੱਗੇ ਦਾ ਰਾਹ ਵੈਰੀਫਾਈਬਲ ਸ਼ੁੱਧਤਾ (verifiable accuracy) ਅਤੇ ਮਜ਼ਬੂਤ ਗਵਰਨੈਂਸ (robust governance) ਦੁਆਰਾ ਭਰੋਸਾ ਸਥਾਪਤ ਕਰਨ 'ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ। ਅਜਿਹੇ AI ਟੂਲਜ਼ (AI tools) ਦੀ ਮੰਗ ਵਧਣ ਦੀ ਉਮੀਦ ਹੈ ਜੋ ਸਬਮਿਸ਼ਨਾਂ (submissions) ਵਿੱਚ AI ਦੀ ਵਰਤੋਂ ਦਾ ਸਪੱਸ਼ਟ ਖੁਲਾਸਾ (disclosure) ਪੇਸ਼ ਕਰਦੇ ਹਨ, AI-ਸਰੋਤ ਅਥਾਰਿਟੀਜ਼ (AI-sourced authorities) ਲਈ ਲਾਜ਼ਮੀ ਵੈਰੀਫਿਕੇਸ਼ਨ ਪ੍ਰੋਟੋਕੋਲ (verification protocols) ਅਤੇ ਗਾਹਕ ਡਾਟਾ (client data) ਲਈ ਸਪੱਸ਼ਟ ਗੁਪਤਤਾ (confidentiality) ਦੇ ਫਰਜ਼। ਪੈਨਸਿਲਵੇਨੀਆ (Pennsylvania) ਅਤੇ ਨਿਊਯਾਰਕ (New York) ਵਰਗੇ ਰਾਜਾਂ ਵਿੱਚ ਉਭਰ ਰਹੇ ਰੁਝਾਨਾਂ ਦੇ ਸਮਾਨ, AI ਖੁਲਾਸੇ ਦੀ ਲੋੜ ਵਾਲੀਆਂ ਪ੍ਰੈਕਟਿਸ ਡਾਇਰੈਕਸ਼ਨਾਂ (practice directions) ਮਿਆਰੀ (standard) ਬਣ ਸਕਦੀਆਂ ਹਨ। ਲਾਅ ਕਮਿਸ਼ਨ (Law Commission) AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਕੰਮਕਾਜ (work product) ਨੂੰ ਸੁਧਾਰ ਦੇ ਇੱਕ ਵੱਖਰੇ ਖੇਤਰ ਵਜੋਂ ਸੰਬੋਧਿਤ ਕਰਨ ਲਈ ਤਿਆਰ ਹੈ। ਅੰਤ ਵਿੱਚ, ਲੀਗਲ ਟੈਕ ਮਾਰਕੀਟ (Legal Tech market) ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਵੱਖ ਹੋ ਜਾਵੇਗਾ, ਉਨ੍ਹਾਂ ਹੱਲਾਂ ਦਾ ਪੱਖ ਪੂਰੇਗਾ ਜੋ ਸਖ਼ਤ ਸ਼ੁੱਧਤਾ ਮਿਆਰਾਂ (accuracy standards) ਅਤੇ ਰੈਗੂਲੇਟਰੀ ਜ਼ਰੂਰਤਾਂ (regulatory requirements) ਨੂੰ ਪੂਰਾ ਕਰ ਸਕਦੇ ਹਨ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹੋਏ ਕਿ AI ਨਿਆਂ ਦੀ ਪ੍ਰਾਪਤੀ ਨੂੰ ਵਧਾਵੇ, ਨਾ ਕਿ ਕਮਜ਼ੋਰ ਕਰੇ।