OpenAI ਦੇ ਰੱਖਿਆ ਵਿਭਾਗ (DoW) ਨਾਲ ਗੁਪਤ ਨੈੱਟਵਰਕਾਂ ਵਿੱਚ AI ਤੈਨਾਤ ਕਰਨ ਦੇ ਸ਼ੁਰੂਆਤੀ ਸਮਝੌਤੇ ਨੂੰ ਤੁਰੰਤ ਵਿਰੋਧ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਿਆ। CEO Sam Altman ਨੇ ਸਵੀਕਾਰ ਕੀਤਾ ਕਿ ਇਹ ਸੌਦਾ "ਕਾਹਲੀ ਵਿੱਚ" ਅਤੇ "ਅਣਗੌਲਿਆ" ਸੀ। ਮੁੱਖ ਚਿੰਤਾਵਾਂ ਘਰੇਲੂ ਪੱਧਰ 'ਤੇ ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਨਿਗਰਾਨੀ (mass domestic surveillance) ਅਤੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰਾਂ (autonomous weapons) ਲਈ ਇਸ AI ਦੀ ਸੰਭਾਵੀ ਦੁਰਵਰਤੋਂ ਨਾਲ ਸਬੰਧਤ ਸਨ।
ਹੁਣ, OpenAI ਨੇ ਆਪਣੇ ਸਮਝੌਤੇ ਵਿੱਚ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਅਮਰੀਕੀ ਨਾਗਰਿਕਾਂ ਦੀ ਇਰਾਦਤਨ ਘਰੇਲੂ ਨਿਗਰਾਨੀ ਲਈ ਇਸਦੀ ਵਰਤੋਂ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾ ਦਿੱਤੀ ਹੈ। ਇਹ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ NSA ਵਰਗੀਆਂ ਖੁਫੀਆ ਏਜੰਸੀਆਂ ਨੂੰ ਸੇਵਾਵਾਂ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਵੱਖਰੀਆਂ ਸੋਧਾਂ ਦੀ ਲੋੜ ਪਵੇਗੀ। ਇਹ ਬਦਲਾਅ ਅਜਿਹੇ ਸਮੇਂ ਆਇਆ ਹੈ ਜਦੋਂ OpenAI ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ $110 ਬਿਲੀਅਨ ਦਾ ਇੱਕ ਵੱਡਾ ਫੰਡਿੰਗ ਦੌਰ ਪੂਰਾ ਕੀਤਾ ਹੈ, ਜਿਸ ਨਾਲ ਕੰਪਨੀ ਦਾ ਮੁੱਲ $840 ਬਿਲੀਅਨ ਹੋ ਗਿਆ ਹੈ।
ਇਸ ਦੇ ਉਲਟ, ਪ੍ਰਤੀਯੋਗੀ Anthropic, ਜਿਸ ਨੇ ਅਜਿਹੇ ਉਪਯੋਗਾਂ ਦੇ ਵਿਰੁੱਧ ਆਪਣੀ ਨੈਤਿਕ ਸੁਰੱਖਿਆ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਸੀ, ਨੂੰ ਪੈਂਟਾਗਨ (Pentagon) ਦੁਆਰਾ "ਸਪਲਾਈ ਚੇਨ ਜੋਖਮ" (supply chain risk) ਵਜੋਂ ਨਾਮਜ਼ਦ ਕੀਤਾ ਗਿਆ ਹੈ ਅਤੇ ਸੰਭਾਵੀ ਕਾਨੂੰਨੀ ਚੁਣੌਤੀ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਿਹਾ ਹੈ। ਦੂਜੇ ਪਾਸੇ, ਰੱਖਿਆ ਵਿਭਾਗ ਆਪਣੇ FY2026 ਦੇ ਬਜਟ ਵਿੱਚ AI ਅਤੇ ਆਟੋਨੋਮੀ ਲਈ ਇੱਕ ਰਿਕਾਰਡ $13.4 ਬਿਲੀਅਨ ਦੀ ਬੇਨਤੀ ਕਰ ਰਿਹਾ ਹੈ, ਜੋ ਇਸ ਸੈਕਟਰ ਵਿੱਚ ਵੱਡੇ ਨਿਵੇਸ਼ ਦਾ ਸੰਕੇਤ ਦਿੰਦਾ ਹੈ।
ਰੱਖਿਆ AI ਸੈਕਟਰ ਇਸ ਸਮੇਂ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਾਸ ਕਰ ਰਿਹਾ ਹੈ, ਜੋ ਕਿ ਵਧਦੀਆਂ ਭੂ-ਰਾਜਨੀਤਕ ਤਣਾਅ ਅਤੇ ਤਕਨੀਕੀ ਤਰੱਕੀ ਦੁਆਰਾ ਚਲਾਇਆ ਜਾ ਰਿਹਾ ਹੈ। ਵਿਸ਼ਵ ਪੱਧਰ 'ਤੇ ਫੌਜੀ ਖਰਚੇ ਵਿੱਚ ਵਾਧਾ ਹੋਇਆ ਹੈ, ਅਤੇ AI ਭਵਿੱਖ ਦੀ ਤਿਆਰੀ ਦਾ ਇੱਕ ਮੁੱਖ ਹਿੱਸਾ ਬਣ ਗਿਆ ਹੈ। Palantir ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ, ਜਿਨ੍ਹਾਂ ਦੇ DoD ਨਾਲ ਸਥਾਪਿਤ ਸਬੰਧ ਅਤੇ ਅਰਬਾਂ ਡਾਲਰ ਦੇ ਕਈ ਵੱਡੇ ਠੇਕੇ ਹਨ, ਵਧਦੀ ਮੰਗ ਅਤੇ ਸਕਾਰਾਤਮਕ ਵਿਸ਼ਲੇਸ਼ਕ ਰੇਟਿੰਗਾਂ ਦੇਖ ਰਹੀਆਂ ਹਨ। C3.ai ਨੇ ਸੰਘੀ, ਰੱਖਿਆ ਅਤੇ ਏਰੋਸਪੇਸ ਬੁਕਿੰਗ ਵਿੱਚ ਭਾਰੀ ਵਾਧਾ ਦਰਜ ਕੀਤਾ ਹੈ, ਜੋ ਹੁਣ ਇਸਦੇ ਕੁੱਲ ਕਾਰੋਬਾਰ ਦਾ ਅੱਧੇ ਤੋਂ ਵੱਧ ਹਿੱਸਾ ਬਣ ਗਿਆ ਹੈ। ਇਤਿਹਾਸਕ ਤੌਰ 'ਤੇ, ਰੱਖਿਆ ਖੇਤਰ ਦੇ ਸਟਾਕਾਂ ਨੇ ਭੂ-ਰਾਜਨੀਤਿਕ ਘਟਨਾਵਾਂ ਦੌਰਾਨ ਲਚਕੀਲਾਪਣ ਦਿਖਾਇਆ ਹੈ।
ਹਾਲਾਂਕਿ OpenAI ਨੇ ਸੋਧੇ ਹੋਏ ਸੁਰੱਖਿਆ ਉਪਾਅ ਪੇਸ਼ ਕੀਤੇ ਹਨ, ਫਿਰ ਵੀ ਕਾਫ਼ੀ ਜੋਖਮ ਬਣੇ ਹੋਏ ਹਨ। ਕਾਨੂੰਨੀ ਮਾਹਿਰ ਇਹਨਾਂ ਸੁਰੱਖਿਆਵਾਂ ਦੀ ਲਾਗੂ ਕਰਨਯੋਗਤਾ (enforceability) 'ਤੇ ਸਵਾਲ ਉਠਾਉਂਦੇ ਹਨ, ਕਿਉਂਕਿ "ਸਾਰੇ ਕਾਨੂੰਨੀ ਉਦੇਸ਼ਾਂ" (all lawful purposes) ਵਾਲੀ ਧਾਰਾ ਅਜੇ ਵੀ ਵਿਆਪਕ ਵਰਤੋਂ ਦੀ ਆਗਿਆ ਦੇ ਸਕਦੀ ਹੈ ਜੇਕਰ ਕਾਨੂੰਨ ਜਾਂ ਨੀਤੀ ਦੁਆਰਾ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਪਾਬੰਦੀ ਨਾ ਲਗਾਈ ਜਾਵੇ। ਕੰਪਨੀ ਆਪਣੇ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀ (safety stack) 'ਤੇ ਕਾਫ਼ੀ ਵਿਵੇਕ (discretion) ਬਰਕਰਾਰ ਰੱਖਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦੀਆਂ ਲੋੜਾਂ ਲਈ ਸਰਕਾਰ ਦੁਆਰਾ ਇਹਨਾਂ ਨਿਯੰਤਰਣਾਂ ਨੂੰ ਓਵਰਰਾਈਡ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਪ੍ਰਸ਼ਨ ਖੜ੍ਹੇ ਹੁੰਦੇ ਹਨ। Anthropic ਨੂੰ "ਸਪਲਾਈ ਚੇਨ ਜੋਖਮ" ਵਜੋਂ ਨਾਮਜ਼ਦ ਕਰਨਾ, ਜੋ ਕਿ ਪਹਿਲਾਂ ਵਿਰੋਧੀਆਂ ਲਈ ਰਾਖਵਾਂ ਲੇਬਲ ਸੀ, ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਪੈਂਟਾਗਨ ਦੇ ਉਦੇਸ਼ਾਂ ਨਾਲ ਟਕਰਾਉਣ ਵਾਲੀਆਂ ਕੰਪਨੀਆਂ ਨੂੰ ਗੰਭੀਰ ਵਪਾਰਕ ਨਤੀਜਿਆਂ (commercial repercussions) ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਸਕਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, OpenAI ਦੀ ਯੋਜਨਾਬੰਧ $600 ਬਿਲੀਅਨ ਦੀ ਕੰਪਿਊਟ ਖਰਚੇ (compute spend) ਵਰਗੇ ਫਰੰਟੀਅਰ AI ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਲਈ ਲੋੜੀਂਦੇ ਭਾਰੀ ਪੂੰਜੀ ਨਿਵੇਸ਼, ਤੇਜ਼ੀ ਨਾਲ ਮਾਲੀਆ ਵਾਧੇ ਦਾ ਦਬਾਅ ਪੈਦਾ ਕਰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਲੁਭਾਉਣੇ ਸਰਕਾਰੀ ਠੇਕਿਆਂ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਲਈ ਨੈਤਿਕ ਸਟੈਂਡਾਂ 'ਤੇ ਸਮਝੌਤਾ ਹੋ ਸਕਦਾ ਹੈ।
ਭਵਿੱਖ ਵਿੱਚ, ਰੱਖਿਆ AI ਦਾ ਮਾਹੌਲ ਨੈਤਿਕ ਵਿਚਾਰਾਂ ਅਤੇ ਰੈਗੂਲੇਟਰੀ ਕਠੋਰਤਾ ਦੁਆਰਾ ਵੱਧ ਤੋਂ ਵੱਧ ਪਰਿਭਾਸ਼ਿਤ ਹੋਵੇਗਾ। ਜਿਵੇਂ-ਜਿਵੇਂ DoD AI ਅਤੇ ਆਟੋਨੋਮੀ ਵਿੱਚ ਆਪਣੇ ਨਿਵੇਸ਼ ਨੂੰ ਡੂੰਘਾ ਕਰ ਰਿਹਾ ਹੈ, AI ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਇੱਕ ਗੁੰਝਲਦਾਰ ਵਾਤਾਵਰਣ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਵੇਗਾ ਜਿੱਥੇ ਠੇਕੇ ਦੀਆਂ ਸ਼ਰਤਾਂ, ਨੈਤਿਕ ਸਟੈਂਡਾਂ ਅਤੇ ਭੂ-ਰਾਜਨੀਤਿਕ ਹਕੀਕਤਾਂ ਆਪਸ ਵਿੱਚ ਜੁੜੀਆਂ ਹੋਈਆਂ ਹਨ। OpenAI ਅਤੇ Anthropic ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਇਸ ਗੁੰਝਲਦਾਰ ਮਾਰਗ 'ਤੇ ਚੱਲ ਰਹੀਆਂ ਹਨ, ਜਿਸ ਦੇ ਨਤੀਜੇ ਤਕਨੀਕੀ ਸਮਰੱਥਾ ਦੇ ਨਾਲ-ਨਾਲ ਮਜ਼ਬੂਤ, ਤਸਦੀਕਯੋਗ ਨੈਤਿਕ ਸ਼ਾਸਨ (ethical governance) ਪ੍ਰਦਰਸ਼ਿਤ ਕਰਨ ਵਾਲੀਆਂ ਸੰਸਥਾਵਾਂ ਦਾ ਪੱਖ ਲੈ ਸਕਦੇ ਹਨ।