AI ਕੰਪਨੀ Anthropic ਨੇ ਅਮਰੀਕਾ ਦੀ ਜ਼ਿਲ੍ਹਾ ਅਦਾਲਤ (District Court) ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਮੁਕੱਦਮਾ ਦਾਇਰ ਕੀਤਾ ਹੈ। ਕੰਪਨੀ ਦਾ ਦੋਸ਼ ਹੈ ਕਿ ਖਜ਼ਾਨਾ (Treasury), ਵਣਜ (Commerce) ਅਤੇ ਰੱਖਿਆ (Defense) ਵਿਭਾਗ ਵਰਗੀਆਂ ਸਰਕਾਰੀ ਏਜੰਸੀਆਂ ਨੇ ਕਾਨੂੰਨੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਜਾਂ ਠੋਸ ਸਬੂਤਾਂ ਤੋਂ ਬਿਨਾਂ ਉਸਦੀ AI ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਸਰਕਾਰੀ ਕੰਟਰੈਕਟਾਂ ਤੋਂ ਗੈਰ-ਕਾਨੂੰਨੀ ਤੌਰ 'ਤੇ ਬਾਹਰ ਰੱਖਿਆ ਹੈ।
ਇਸ ਸਾਰੇ ਵਿਵਾਦ ਦੀ ਜੜ੍ਹ Anthropic ਦਾ ਆਪਣੇ Claude AI ਮਾਡਲਾਂ 'ਤੇੋਂ ਸੇਫਟੀ ਲਿਮਿਟਸ (Safety Limits) ਹਟਾਉਣ ਤੋਂ ਇਨਕਾਰ ਕਰਨਾ ਹੈ। ਇਹ ਸੇਫਟੀ ਲਿਮਿਟਸ AI ਨੂੰ ਘਰੇਲੂ ਪੱਧਰ 'ਤੇ ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਨਿਗਰਾਨੀ (Mass Surveillance) ਜਾਂ ਪੂਰੀ ਤਰ੍ਹਾਂ ਆਟੋਨੋਮਸ ਹਥਿਆਰਾਂ (Autonomous Weapons) ਲਈ ਵਰਤਣ ਤੋਂ ਰੋਕਦੀਆਂ ਹਨ। Anthropic ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਪੈਂਟਾਗਨ (Pentagon) ਵੱਲੋਂ 'ਸਪਲਾਈ ਚੇਨ ਰਿਸਕ' (Supply Chain Risk) ਵਜੋਂ ਦਿੱਤਾ ਗਿਆ ਇਹ ਸਟੇਟਸ (Status) ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ (National Security) ਬਾਰੇ ਨਹੀਂ, ਸਗੋਂ AI ਸੇਫਟੀ ਸਿਧਾਂਤਾਂ (AI Safety Principles) 'ਤੇ ਕਾਇਮ ਰਹਿਣ ਲਈ ਇੱਕ ਜਵਾਬੀ ਕਾਰਵਾਈ (Retaliatory Punishment) ਹੈ, ਜੋ ਉਸਦੇ ਅਧਿਕਾਰਾਂ ਦੀ ਉਲੰਘਣਾ ਕਰਦਾ ਹੈ। ਇਹ ਪਹਿਲੀ ਵਾਰ ਦੇਖਿਆ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਅਮਰੀਕੀ ਸਰਕਾਰ ਨੇ ਇੱਕ ਘਰੇਲੂ ਟੈਕ ਫਰਮ 'ਤੇ ਅਜਿਹਾ ਲੇਬਲ ਲਗਾਇਆ ਹੋਵੇ।
ਇਸ ਤੋਂ ਇਲਾਵਾ, ਖ਼ਬਰਾਂ ਹਨ ਕਿ ਵਾਈਟ ਹਾਊਸ (White House) ਇੱਕ ਨਵੇਂ ਐਗਜ਼ੀਕਿਊਟਿਵ ਆਰਡਰ (Executive Order) ਦੀ ਤਿਆਰੀ ਕਰ ਰਿਹਾ ਹੈ, ਜੋ ਕਿ 27 ਫਰਵਰੀ, 2026 ਦੇ ਪਹਿਲੇ ਨਿਰਦੇਸ਼ ਦੇ ਅਧਾਰ 'ਤੇ ਸਾਰੀਆਂ ਫੈਡਰਲ ਕਾਰਵਾਈਆਂ ਵਿੱਚ Anthropic ਦੀ AI 'ਤੇ ਰਸਮੀ ਤੌਰ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾ ਸਕਦਾ ਹੈ।
ਇਹ ਕਾਨੂੰਨੀ ਲੜਾਈ ਅਜਿਹੇ ਸਮੇਂ ਹੋ ਰਹੀ ਹੈ ਜਦੋਂ ਅਮਰੀਕੀ ਸਰਕਾਰ AI ਦੀ ਵਰਤੋਂ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਵਧਾ ਰਹੀ ਹੈ। ਇਹ ਅਨੁਮਾਨ ਲਗਾਇਆ ਗਿਆ ਹੈ ਕਿ ਫੈਡਰਲ AI ਖਰਚਾ FY2026 ਵਿੱਚ $2.7 ਬਿਲੀਅਨ ਤੋਂ ਵਧ ਕੇ FY2028 ਤੱਕ $3.1 ਬਿਲੀਅਨ ਹੋ ਜਾਵੇਗਾ। ਇਸ ਦੌਰਾਨ, Anthropic ਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਨੇ ਸਰਕਾਰੀ ਕੰਟਰੈਕਟ ਹਾਸਲ ਕਰਨ ਵਿੱਚ ਸਫਲਤਾ ਪ੍ਰਾਪਤ ਕੀਤੀ ਹੈ। ਉਦਾਹਰਨ ਲਈ, OpenAI ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ ਰੱਖਿਆ ਵਿਭਾਗ ਨਾਲ ਆਪਣੇ AI ਨੂੰ ਗੁਪਤ ਫੌਜੀ ਨੈੱਟਵਰਕਾਂ (Classified Military Networks) 'ਤੇ ਵਰਤਣ ਲਈ ਸਮਝੌਤਾ ਕੀਤਾ ਹੈ। Google ਆਪਣੇ 'Gemini for Government' ਆਫਰਿੰਗ ਰਾਹੀਂ ਇੱਕ ਵੱਡਾ ਫੈਡਰਲ AI ਪਲੇਅਰ ਹੈ, ਜਿਸਦਾ $200 ਮਿਲੀਅਨ ਦਾ ਕੰਟਰੈਕਟ DoD ਦੇ ਚੀਫ ਡਿਜੀਟਲ ਐਂਡ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਆਫਿਸ (CDAO) ਦੀ ਮਦਦ ਲਈ ਹੈ। Microsoft, ਜੋ ਕਿ OpenAI ਦਾ ਮੁੱਖ ਕਲਾਉਡ ਪ੍ਰੋਵਾਈਡਰ (Cloud Provider) ਅਤੇ ਨਿਵੇਸ਼ਕ (Investor) ਹੈ, ਕੋਲ $170.4 ਮਿਲੀਅਨ ਦਾ ਯੂ.ਐਸ. ਏਅਰ ਫੋਰਸ (U.S. Air Force) ਨਾਲ Azure ਕਲਾਉਡ ਸੇਵਾਵਾਂ ਦਾ ਕੰਟਰੈਕਟ ਹੈ। GSA ਦੀ 'OneGov' ਪਹਿਲ ਨੇ ਪਹਿਲਾਂ Anthropic, OpenAI ਅਤੇ Google ਨੂੰ ਮਨਜ਼ੂਰਸ਼ੁਦਾ AI ਵਿਕਰੇਤਾਵਾਂ (Approved AI Vendors) ਵਜੋਂ ਸੂਚੀਬੱਧ ਕੀਤਾ ਸੀ, ਪਰ ਹੁਣ Anthropic ਇਸ ਮੁਕਾਬਲੇਬਾਜ਼ੀ ਵਾਲੇ ਖੇਤਰ ਤੋਂ ਬਾਹਰ ਹੋਣ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਹੀ ਹੈ।
Anthropic, ਜਿਸਦਾ ਮੁੱਲ ਫਰਵਰੀ 2026 ਵਿੱਚ $30 ਬਿਲੀਅਨ ਦੀ ਸੀਰੀਜ਼ G ਫੰਡਿੰਗ (Series G Funding) ਤੋਂ ਬਾਅਦ ਅੰਦਾਜ਼ਨ $380 ਬਿਲੀਅਨ ਲਗਾਇਆ ਗਿਆ ਹੈ, ਇਸ ਸਰਕਾਰੀ ਬੈਨ (Ban) ਕਾਰਨ ਇੱਕ ਵੱਡੀ ਰਣਨੀਤਕ ਰੁਕਾਵਟ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਹੀ ਹੈ। ਇਸਦੀ $380 ਬਿਲੀਅਨ ਦੀ ਵਾਲਿਊਏਸ਼ਨ ਨਿਵੇਸ਼ਕਾਂ ਦੇ ਮਜ਼ਬੂਤ ਭਰੋਸੇ ਅਤੇ $14 ਬਿਲੀਅਨ ਤੋਂ ਵੱਧ ਦੀ ਸਾਲਾਨਾ ਰੈਵਨਿਊ ਰਨ-ਰੇਟ (Annual Revenue Run-Rate) ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਹਾਲਾਂਕਿ, ਫੈਡਰਲ ਸਰਕਾਰ ਦੇ ਬਾਜ਼ਾਰ ਤੋਂ ਬਾਹਰ ਹੋਣਾ ਨਾ ਸਿਰਫ ਸੰਭਾਵੀ ਮਾਲੀ ਨੁਕਸਾਨ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ, ਬਲਕਿ Anthropic ਦੀ ਸਾਖ (Reputation) ਨੂੰ ਵੀ ਢਾਹ ਲਾ ਸਕਦਾ ਹੈ, ਜੋ ਭਵਿੱਖੀ ਭਾਈਵਾਲੀ (Partnerships) ਅਤੇ ਫੰਡਿੰਗ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦਾ ਹੈ।
Google Cloud ਅਤੇ Microsoft Azure ਵਰਗੇ ਕਲਾਉਡ ਜੈਂਟਸ (Cloud Giants), ਜੋ ਵਪਾਰਕ ਤੌਰ 'ਤੇ Anthropic ਦੇ Claude ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦੇ ਹਨ, ਨੂੰ ਸਰਕਾਰੀ ਆਦੇਸ਼ਾਂ (Government Mandates) ਦੇ ਨਾਲ ਗਾਹਕਾਂ (Clients) ਦਾ ਸਮਰਥਨ ਕਰਨ ਵਿੱਚ ਸੰਤੁਲਨ ਬਣਾਉਣਾ ਪਵੇਗਾ। ਇਸ ਨਾਲ ਇੱਕ ਵੰਡਿਆ ਹੋਇਆ ਬਾਜ਼ਾਰ ਬਣਦਾ ਹੈ ਜਿੱਥੇ AI ਮਾਡਲਾਂ ਨੂੰ ਰੱਖਿਆ ਕੰਮਾਂ ਲਈ ਪਾਬੰਦੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਪਰ ਵਪਾਰਕ ਵਰਤੋਂ ਲਈ ਉਪਲਬਧ ਹੁੰਦੇ ਹਨ।
ਇਹ ਸਾਰਾ ਵਿਵਾਦ ਅਮਰੀਕਾ ਦੇ AI ਨਿਯਮਾਂ (AI Regulations) ਦੇ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਸਤ ਹੋ ਰਹੇ ਪਿਛੋਕੜ ਵਿੱਚ ਵਾਪਰ ਰਿਹਾ ਹੈ। ਟਰੰਪ ਪ੍ਰਸ਼ਾਸਨ (Trump Administration) AI ਵਿੱਚ ਸੰਘੀ ਲੀਡਰਸ਼ਿਪ (Federal Leadership) ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰ ਰਿਹਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਰੁਕਾਵਟਾਂ ਨੂੰ ਦੂਰ ਕਰਨਾ ਅਤੇ ਅਮਰੀਕਾ-ਨਿਰਮਿਤ AI ਨੂੰ ਤਰਜੀਹ ਦੇਣਾ ਸ਼ਾਮਲ ਹੈ। ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪਹਿਲੂ ਇਹ ਹੈ ਕਿ ਸੰਘੀ ਸਰਕਾਰ ਰਾਜਾਂ ਦੇ AI ਕਾਨੂੰਨਾਂ (State AI Laws) ਨੂੰ ਓਵਰਰਾਈਡ (Override) ਕਰ ਰਹੀ ਹੈ, ਜਿਸ ਨਾਲ ਦੇਸ਼ ਭਰ ਵਿੱਚ ਨਿਯਮਾਂ ਦਾ ਇੱਕ ਪੇਚੀਦਾ ਜਾਲ ਬਣ ਗਿਆ ਹੈ। ਰਾਸ਼ਟਰੀ ਨੀਤੀ (National Policy) ਨਾਲ ਟਕਰਾਉਣ ਵਾਲੇ ਰਾਜ ਕਾਨੂੰਨਾਂ ਨੂੰ ਚੁਣੌਤੀ ਦੇਣ ਲਈ ਇੱਕ AI ਲਿਟੀਗੇਸ਼ਨ ਟਾਸਕ ਫੋਰਸ (AI Litigation Task Force) ਦਾ ਗਠਨ ਕੀਤਾ ਗਿਆ ਹੈ, ਜੋ AI 'ਤੇ ਕੇਂਦਰੀਕ੍ਰਿਤ ਸੰਘੀ ਨਿਯੰਤਰਣ (Centralized Federal Control) ਵੱਲ ਇਸ਼ਾਰਾ ਕਰਦਾ ਹੈ। GSA ਦੀ OneGov ਰਣਨੀਤੀ ਵਰਗੇ ਯਤਨ ਇਸ ਕੇਂਦਰੀਕ੍ਰਿਤ ਨਿਗਰਾਨੀ (Federal Oversight) ਅਤੇ ਇਕਸਾਰ ਖਰੀਦ (Uniform Procurement) ਦੀ ਇੱਛਾ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ।
AI ਸੇਫਟੀ 'ਤੇ Anthropic ਦਾ ਮਜ਼ਬੂਤ ਸਟੈਂਡ (Strong Stance), ਭਾਵੇਂ ਨੈਤਿਕ ਤੌਰ 'ਤੇ ਸਹੀ ਹੋਵੇ, ਨੇ ਇਸਨੂੰ ਇੱਕ ਮੁੱਖ ਬਾਜ਼ਾਰ ਤੋਂ ਬਾਹਰ ਕਰ ਦਿੱਤਾ ਹੈ, ਜਿਸ ਨਾਲ ਇਸਦੀ ਉੱਚ ਵਾਲਿਊਏਸ਼ਨ ਨੂੰ ਖਤਰਾ ਹੈ। ਇਹ OpenAI ਅਤੇ Google ਵਰਗੇ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਦੀ ਤੁਲਨਾ ਵਿੱਚ ਇੱਕ ਰਣਨੀਤਕ ਨੁਕਸਾਨ (Strategic Disadvantage) ਪੈਦਾ ਕਰਦਾ ਹੈ, ਜੋ ਸਰਕਾਰ ਦੀ AI ਦੀ ਵਿਆਪਕ ਵਰਤੋਂ ਦਾ ਸਮਰਥਨ ਕਰਨ ਲਈ ਜ਼ਿਆਦਾ ਤਿਆਰ ਦਿਖਾਈ ਦਿੰਦੇ ਹਨ। 'ਸਪਲਾਈ ਚੇਨ ਰਿਸਕ' ਲੇਬਲ ਅਤੇ ਆਉਣ ਵਾਲਾ ਐਗਜ਼ੀਕਿਊਟਿਵ ਆਰਡਰ ਲੰਬੇ ਕਾਨੂੰਨੀ ਸੰਘਰਸ਼ਾਂ (Legal Fights) ਅਤੇ ਸਾਖ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਵਧਾਉਂਦੇ ਹਨ। ਇਹ ਰੈਗੂਲੇਟਰੀ ਚੁਣੌਤੀ (Regulatory Challenge) Anthropic ਨੂੰ ਰੱਖਿਆਤਮਕ (Defensive) ਸਥਿਤੀ ਵਿੱਚ ਲਿਆ ਸਕਦੀ ਹੈ, ਇਸਦੇ ਵਿਕਾਸ ਨੂੰ ਹੌਲੀ ਕਰ ਸਕਦੀ ਹੈ ਅਤੇ ਉੱਚ ਪੱਧਰ 'ਤੇ ਮੁਕਾਬਲਾ ਕਰਨ ਦੀ ਇਸਦੀ ਯੋਗਤਾ ਨੂੰ ਸੀਮਤ ਕਰ ਸਕਦੀ ਹੈ, ਖਾਸ ਕਰਕੇ ਜੇਕਰ ਹੋਰ ਬਾਜ਼ਾਰ ਵੀ ਅਜਿਹੀਆਂ ਪਾਬੰਦੀਆਂ ਅਪਣਾਉਂਦੇ ਹਨ। ਇੱਕ ਮੁੱਖ ਚਿੰਤਾ ਇਹ ਹੈ ਕਿ ਕੀ Anthropic ਦੀ ਮੌਜੂਦਾ $380 ਬਿਲੀਅਨ ਦੀ ਵਾਲਿਊਏਸ਼ਨ ਸਰਕਾਰੀ AI ਖਰੀਦ (Government AI Procurement) ਸੈਕਟਰ ਤੱਕ ਪਹੁੰਚ ਤੋਂ ਬਿਨਾਂ ਬਰਕਰਾਰ ਰਹਿ ਸਕਦੀ ਹੈ, ਜਿੱਥੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਪਹਿਲਾਂ ਹੀ ਮਹੱਤਵਪੂਰਨ ਪੈਰ ਜਮਾ ਚੁੱਕੇ ਹਨ।