AI ਦੀ ਦੌੜ ਵਿੱਚ ਅਮਰੀਕਾ ਦੀਆਂ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਇਕੱਠੀਆਂ: ਚੀਨ ਤੋਂ ਟੈਕਨਾਲੋਜੀ ਚੋਰੀ ਰੋਕਣ ਲਈ Frontier Model Forum ਦਾ ਐਲਾਨ

TECH
Whalesbook Logo
AuthorJasleen Kaur|Published at:
AI ਦੀ ਦੌੜ ਵਿੱਚ ਅਮਰੀਕਾ ਦੀਆਂ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਇਕੱਠੀਆਂ: ਚੀਨ ਤੋਂ ਟੈਕਨਾਲੋਜੀ ਚੋਰੀ ਰੋਕਣ ਲਈ Frontier Model Forum ਦਾ ਐਲਾਨ
Overview

ਅਮਰੀਕਾ ਦੀਆਂ ਚੋਟੀ ਦੀਆਂ AI ਕੰਪਨੀਆਂ, ਜਿਨ੍ਹਾਂ ਵਿੱਚ OpenAI, Google, ਅਤੇ Anthropic ਸ਼ਾਮਲ ਹਨ, ਨੇ ਚੀਨੀ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਵੱਲੋਂ ਉਨ੍ਹਾਂ ਦੇ ਐਡਵਾਂਸਡ AI ਮਾਡਲਾਂ ਦੀ ਅਣਅਧਿਕਾਰਤ 'adversarial distillation' (ਤਕਨੀਕੀ ਨਕਲ) ਨੂੰ ਰੋਕਣ ਲਈ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨ ਦਾ ਫੈਸਲਾ ਕੀਤਾ ਹੈ। Frontier Model Forum ਰਾਹੀਂ ਇਹ ਕੰਪਨੀਆਂ ਆਪਣੀ ਮਲਕੀਅਤ ਵਾਲੀ ਟੈਕਨਾਲੋਜੀ ਦੀ ਨਕਲ ਨੂੰ ਖੋਜਣ ਅਤੇ ਰੋਕਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੀਆਂ ਹਨ। ਇਸ ਨਾਲ ਵੱਡੇ ਆਰਥਿਕ ਨੁਕਸਾਨ ਅਤੇ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦੇ ਖਤਰਿਆਂ ਬਾਰੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਗਈ ਹੈ।

Instant Stock Alerts on WhatsApp

Used by 10,000+ active investors

1

Add Stocks

Select the stocks you want to track in real time.

2

Get Alerts on WhatsApp

Receive instant updates directly to WhatsApp.

  • Quarterly Results
  • Concall Announcements
  • New Orders & Big Deals
  • Capex Announcements
  • Bulk Deals
  • And much more

AI ਕੰਪਨੀਆਂ ਨੇ ਮਿਲ ਕੇ ਚੁੱਕਿਆ ਅਹਿਮ ਕਦਮ

AI ਖੇਤਰ ਵਿੱਚ ਗਲੋਬਲ ਦਬਦਬਾ ਹਾਸਲ ਕਰਨ ਦੀ ਹੋੜ ਦੇ ਵਿਚਕਾਰ, ਅਮਰੀਕਾ ਦੀਆਂ ਪ੍ਰਮੁੱਖ AI ਕੰਪਨੀਆਂ ਨੇ ਇੱਕ ਵੱਡਾ ਕਦਮ ਚੁੱਕਿਆ ਹੈ। ਇਹ ਸਿਰਫ਼ ਬੌਧਿਕ ਸੰਪਤੀ (Intellectual Property) ਨੂੰ ਬਚਾਉਣ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਕਿ ਅਮਰੀਕੀ ਕੰਪਨੀਆਂ AI ਵਿਕਾਸ ਵਿੱਚ ਆਪਣੀ ਲੀਡ ਬਰਕਰਾਰ ਰੱਖਣ। "Adversarial distillation" ਵਰਗੀਆਂ ਤਕਨੀਕਾਂ ਰਾਹੀਂ, ਮੁਕਾਬਲੇਬਾਜ਼ ਕੰਪਨੀਆਂ ਮਾਡਲਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ ਲੋੜੀਂਦੇ ਭਾਰੀ ਖਰਚਿਆਂ ਅਤੇ ਰਿਸਰਚ ਨੂੰ ਬਚਾ ਕੇ ਉਨ੍ਹਾਂ ਦੀ ਨਕਲ ਕਰ ਸਕਦੀਆਂ ਹਨ। Frontier Model Forum ਰਾਹੀਂ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਕੇ, ਇਹ ਕੰਪਨੀਆਂ ਇੱਕ ਅਜਿਹੇ ਖਤਰੇ ਨਾਲ ਨਜਿੱਠ ਰਹੀਆਂ ਹਨ ਜੋ ਸਿਰਫ਼ ਵਿੱਤੀ ਨੁਕਸਾਨ ਤੋਂ ਪਰ੍ਹੇ ਹੈ, ਅਤੇ ਇਸ ਵਿੱਚ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦੇ ਜੋਖਮ ਵੀ ਸ਼ਾਮਲ ਹਨ ਕਿਉਂਕਿ AI ਮਾਡਲਾਂ ਵਿੱਚੋਂ ਸੁਰੱਖਿਆ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਨੂੰ ਹਟਾਇਆ ਜਾ ਸਕਦਾ ਹੈ।

AI 'ਤੇ ਦਬਦਬੇ ਲਈ ਆਰਥਿਕ ਜੰਗ

Alphabet Inc. (Google) ਵਰਗੀਆਂ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਦੀ ਮੁੱਖ ਵਪਾਰਕ ਰਣਨੀਤੀ ਉਨ੍ਹਾਂ ਦੇ ਵਿਸ਼ੇਸ਼ ਅਤੇ ਅਤਿ-ਆਧੁਨਿਕ AI 'ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਹੈ। ਲਗਭਗ $3.6 ਟ੍ਰਿਲੀਅਨ ਦੇ ਮੁੱਲ ਵਾਲੀ Alphabet, ਜਿਸਦਾ P/E ਰੇਸ਼ੋ ਲਗਭਗ 27.37 ਹੈ, ਨੇ ਡਾਟਾ ਸੈਂਟਰਾਂ ਅਤੇ ਰਿਸਰਚ ਵਿੱਚ ਭਾਰੀ ਨਿਵੇਸ਼ 'ਤੇ ਆਪਣਾ ਨਿਵੇਸ਼ਕ ਵਿਸ਼ਵਾਸ ਬਣਾਇਆ ਹੈ। ਹਾਲਾਂਕਿ, "adversarial distillation" ਚੀਨ ਵਰਗੇ ਦੇਸ਼ਾਂ ਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਨੂੰ ਘੱਟ ਖਰਚੇ 'ਤੇ ਇਹਨਾਂ ਐਡਵਾਂਸਡ AI ਸਮਰੱਥਾਵਾਂ ਦੀ ਨਕਲ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ। ਇਹ ਉਹਨਾਂ ਨੂੰ ਇੱਕ ਗੈਰ-ਨਿਰਪੱਖ ਫਾਇਦਾ ਦਿੰਦਾ ਹੈ, ਜੋ ਅਮਰੀਕੀ AI ਕੰਪਨੀਆਂ ਦੇ ਮਾਰਕੀਟ ਸ਼ੇਅਰ ਅਤੇ ਮੁਨਾਫੇ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾ ਸਕਦਾ ਹੈ। AI ਬਾਜ਼ਾਰ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਸਤ ਹੋ ਰਿਹਾ ਹੈ, ਅਤੇ AI ਨੂੰ ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਲਾਗੂ ਕਰਨ ਦੀ ਲਾਗਤ ਇੱਕ ਵੱਡਾ ਕਾਰਕ ਬਣ ਰਹੀ ਹੈ। ਜਿਹੜੀਆਂ ਕੰਪਨੀਆਂ "distillation" ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਮਾਨ ਸੇਵਾਵਾਂ ਸਸਤੀਆਂ ਪੇਸ਼ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਉਹ ਇਹਨਾਂ ਮਹਿੰਗੇ, ਮਲਕੀਅਤ ਵਾਲੇ ਮਾਡਲਾਂ ਦੇ ਮੁੱਲ ਨੂੰ ਸਿੱਧੀ ਚੁਣੌਤੀ ਦਿੰਦੀਆਂ ਹਨ। ਇਸ ਪ੍ਰੈਕਟਿਸ ਬਾਰੇ ਚਿੰਤਾਵਾਂ 2025 ਦੀ ਸ਼ੁਰੂਆਤ ਵਿੱਚ DeepSeek ਦੇ R1 ਮਾਡਲ ਦੇ ਲਾਂਚ ਤੋਂ ਬਾਅਦ ਕਾਫ਼ੀ ਵੱਧ ਗਈਆਂ, ਜਿਸ ਨੇ ਮਾਰਕੀਟ ਵਿੱਚ ਵਿਘਨ ਪਾਇਆ ਅਤੇ ਚੀਨੀ ਕੰਪਨੀਆਂ ਦੁਆਰਾ ਡਾਟਾ ਚੋਰੀ ਦੇ ਦੋਸ਼ਾਂ ਦੀ ਜਾਂਚ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ।

ਰੈਗੂਲੇਸ਼ਨਾਂ ਅਤੇ ਗਲੋਬਲ ਮੁਕਾਬਲੇਬਾਜ਼ੀ ਵਿੱਚ ਨੇਵੀਗੇਟ ਕਰਨਾ

Microsoft, OpenAI, Google, ਅਤੇ Anthropic ਦੁਆਰਾ 2023 ਵਿੱਚ ਸਥਾਪਿਤ ਕੀਤਾ ਗਿਆ Frontier Model Forum, AI ਖਤਰਿਆਂ 'ਤੇ ਉਦਯੋਗ ਦੇ ਸਹਿਯੋਗ ਵੱਲ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਕਦਮ ਹੈ। ਇਹ ਫੋਰਮ ਇਹਨਾਂ ਕੰਪਨੀਆਂ ਨੂੰ AI ਕਮਜ਼ੋਰੀਆਂ ਅਤੇ ਜੋਖਮ ਭਰੀਆਂ ਸਮਰੱਥਾਵਾਂ ਬਾਰੇ ਡਾਟਾ ਸਾਂਝਾ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ, ਜਿਸਦਾ ਉਦੇਸ਼ ਬੌਧਿਕ ਸੰਪਤੀ ਦੀ ਸੁਰੱਖਿਆ ਕਰਨਾ ਅਤੇ ਨਿਰਪੱਖ ਮੁਕਾਬਲਾ ਬਣਾਈ ਰੱਖਣਾ ਹੈ। ਹਾਲਾਂਕਿ, ਫੋਰਮ ਦੀਆਂ ਕਾਰਵਾਈਆਂ ਕੰਪਨੀਆਂ ਦੀ ਮੌਜੂਦਾ ਐਂਟੀਟਰਸਟ ਨਿਯਮਾਂ ਬਾਰੇ ਅਨਿਸ਼ਚਿਤਤਾ ਕਾਰਨ ਸੀਮਤ ਹਨ। ਉਹ ਅੰਤਰਰਾਸ਼ਟਰੀ ਵਿਰੋਧੀਆਂ ਵਿਰੁੱਧ ਆਪਣੇ ਸਾਂਝੇ ਯਤਨਾਂ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਨ ਲਈ ਅਮਰੀਕੀ ਸਰਕਾਰ ਤੋਂ ਸਪੱਸ਼ਟ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਮੰਗ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਸਹਿਯੋਗ AI ਵਿੱਚ ਵਧੇ ਹੋਏ ਅਮਰੀਕਾ-ਚੀਨ ਮੁਕਾਬਲੇ ਦੇ ਮਾਹੌਲ ਵਿੱਚ ਹੋ ਰਿਹਾ ਹੈ, ਜੋ ਰਾਸ਼ਟਰੀ ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਦੀ ਸੁਰੱਖਿਆ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ। ਚੀਨ ਆਪਣੀ AI ਬੌਧਿਕ ਸੰਪਤੀ ਕਾਨੂੰਨਾਂ ਨੂੰ ਵੀ ਮਜ਼ਬੂਤ ਕਰ ਰਿਹਾ ਹੈ ਅਤੇ AI ਪੇਟੈਂਟ ਅਰਜ਼ੀਆਂ ਵਿੱਚ ਅਗਵਾਈ ਕਰ ਰਿਹਾ ਹੈ, ਹਾਲਾਂਕਿ ਇਹਨਾਂ ਪੇਟੈਂਟਾਂ ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ 'ਤੇ ਬਹਿਸ ਹੁੰਦੀ ਹੈ। ਗਲੋਬਲ AI ਬਾਜ਼ਾਰ ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਵਾਧਾ ਹੋਣ ਦੀ ਉਮੀਦ ਹੈ, ਜਿਸ ਵਿੱਚ ਭਾਰੀ ਬੁਨਿਆਦੀ ਢਾਂਚਾ ਨਿਵੇਸ਼ ਦੀ ਯੋਜਨਾ ਹੈ, ਜਿਸ ਨਾਲ ਮੁੱਖ AI ਤਕਨਾਲੋਜੀਆਂ ਦੀ ਸੁਰੱਖਿਆ ਇੱਕ ਰਣਨੀਤਕ ਤਰਜੀਹ ਬਣ ਜਾਂਦੀ ਹੈ। ਏਸ਼ੀਆ-ਪ੍ਰਸ਼ਾਂਤ ਖੇਤਰ ਨੂੰ ਡਿਜੀਟਲ ਪਰਿਵਰਤਨ ਦੁਆਰਾ ਚਲਾਏ ਜਾ ਰਹੇ ਸਭ ਤੋਂ ਤੇਜ਼ੀ ਨਾਲ ਵਧਣ ਵਾਲੇ ਬਾਜ਼ਾਰ ਵਜੋਂ ਪਛਾਣਿਆ ਗਿਆ ਹੈ।

IP ਚੋਰੀ ਨੂੰ ਸਾਬਤ ਕਰਨ ਅਤੇ ਮੁਕੱਦਮਾ ਚਲਾਉਣ ਵਿੱਚ ਚੁਣੌਤੀਆਂ

"Adversarial distillation" ਨੂੰ ਰੋਕਣ ਲਈ ਅਮਰੀਕੀ AI ਡਿਵੈਲਪਰਾਂ ਦੇ ਇੱਕਜੁੱਟ ਹੋਣ ਦੇ ਬਾਵਜੂਦ, ਉਹਨਾਂ ਦੇ ਯਤਨਾਂ ਨੂੰ ਵੱਡੀਆਂ ਚੁਣੌਤੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। AI ਵਿੱਚ IP ਚੋਰੀ ਨੂੰ ਸਾਬਤ ਕਰਨਾ ਅਤੇ ਮੁਕੱਦਮਾ ਚਲਾਉਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਆਲੋਚਕ ਇਸ਼ਾਰਾ ਕਰਦੇ ਹਨ ਕਿ ਮਾਡਲਾਂ ਵਿਚਕਾਰ ਸਿਰਫ਼ ਸਮਾਨਤਾ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ; ਨੈਟਵਰਕ ਲਾਗਾਂ ਵਰਗੇ ਠੋਸ ਸਬੂਤਾਂ ਦੀ ਲੋੜ ਹੈ। AI ਆਊਟਪੁੱਟ ਅਤੇ ਕਾਪੀਰਾਈਟ ਲਈ ਕਾਨੂੰਨੀ ਢਾਂਚਾ ਵੀ ਅਸਪਸ਼ਟ ਹੈ। ਕੁਝ ਕਾਨੂੰਨੀ ਰਾਵਾਂ ਸੁਝਾਅ ਦਿੰਦੀਆਂ ਹਨ ਕਿ ਮੌਜੂਦਾ ਅਮਰੀਕੀ ਕਾਪੀਰਾਈਟ ਕਾਨੂੰਨ ਅਣਅਧਿਕਾਰਤ "distillation" ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਕਵਰ ਨਾ ਕਰ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਇੱਕ ਲੂਪਹੋਲ ਬਣ ਸਕਦਾ ਹੈ। ਇਸ ਜਟਿਲਤਾ ਵਿੱਚ ਵਾਧਾ ਕਰਦੇ ਹੋਏ, ਕੁਝ ਕੰਪਨੀਆਂ ਜੋ ਹੁਣ ਇਹਨਾਂ ਮੁੱਦਿਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰ ਰਹੀਆਂ ਹਨ, ਉਹਨਾਂ ਨੇ ਖੁਦ ਆਪਣੇ AI ਨੂੰ ਟ੍ਰੇਨ ਕਰਦੇ ਸਮੇਂ ਡਾਟਾ ਚੋਰੀ ਅਤੇ ਕਾਪੀਰਾਈਟ ਉਲੰਘਣਾ ਦੇ ਦੋਸ਼ਾਂ ਦਾ ਸਾਹਮਣਾ ਕੀਤਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, Anthropic ਨੇ ਪਾਇਰੇਟਡ ਕਿਤਾਬਾਂ ਨਾਲ ਸਬੰਧਤ ਮੁਕੱਦਮੇਬਾਜ਼ੀ ਦਾ ਨਿਪਟਾਰਾ ਕੀਤਾ ਹੈ, ਅਤੇ OpenAI ਕਈ ਕਾਪੀਰਾਈਟ ਮਾਮਲਿਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਿਹਾ ਹੈ। ਡਿਸਟਿਲਡ AI ਮਾਡਲਾਂ ਵਿੱਚ ਸੁਰੱਖਿਆ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਕਮੀ ਬਾਰੇ ਵੀ ਚਿੰਤਾਵਾਂ ਬਣੀਆਂ ਹੋਈਆਂ ਹਨ, ਜਿਸਨੂੰ ਖਤਰਨਾਕ ਉਦੇਸ਼ਾਂ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਖਤਰਨਾਕ ਬਾਇਓਲੋਜੀਕਲ ਏਜੰਟ ਵਿਕਸਿਤ ਕਰਨਾ। ਅਮਰੀਕੀ ਅਧਿਕਾਰੀ ਸਾਲਾਨਾ ਅਰਬਾਂ ਡਾਲਰ ਦੇ ਮੁਨਾਫੇ ਦੇ ਦਾਅ 'ਤੇ ਹੋਣ ਦਾ ਅਨੁਮਾਨ ਲਗਾਉਂਦੇ ਹਨ। ਜਿਵੇਂ-ਜਿਵੇਂ AI ਬਾਜ਼ਾਰ ਤੇਜ਼ੀ ਨਾਲ ਆਪਰੇਸ਼ਨਲ AI ਅਤੇ ਹਿਊਮਨ-AI ਟੀਮਵਰਕ ਵੱਲ ਵਧ ਰਿਹਾ ਹੈ, ਇਹਨਾਂ ਮੁੱਖ ਤਕਨਾਲੋਜੀਆਂ ਦੀ ਸੁਰੱਖਿਆ ਬਹੁਤ ਮਹੱਤਵਪੂਰਨ ਹੈ।

ਅੱਗੇ ਦਾ ਰਾਹ

Frontier Model Forum ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਪ੍ਰਮੁੱਖ AI ਫਰਮਾਂ ਆਪਣੀਆਂ ਨਵੀਨਤਾਵਾਂ ਦੀ ਸੁਰੱਖਿਆ ਲਈ ਸਰਗਰਮ ਕਦਮ ਚੁੱਕ ਰਹੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਇਸ ਪਹਿਲਕਦਮੀ ਦੀ ਸਫਲਤਾ ਸਰਕਾਰਾਂ ਦੁਆਰਾ ਸਪੱਸ਼ਟ ਨਿਯਮ ਪ੍ਰਦਾਨ ਕਰਨ, IP ਚੋਰੀ ਵਿਰੁੱਧ ਮਜ਼ਬੂਤ ਲਾਗੂਕਰਨ ਸਥਾਪਤ ਕਰਨ, ਅਤੇ ਨਵੀਨਤਾ ਅਤੇ ਨੈਤਿਕਤਾ ਵਿਚਕਾਰ ਸੰਤੁਲਨ ਬਣਾਈ ਰੱਖਣ 'ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਹੈ। ਬਾਜ਼ਾਰ ਇਹ ਦੇਖੇਗਾ ਕਿ ਇਹ ਟੈਕ ਜੈਂਟਸ ਐਂਟੀਟਰਸਟ ਮੁੱਦਿਆਂ ਦਾ ਪ੍ਰਬੰਧਨ ਕਿਵੇਂ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਉਹਨਾਂ ਦੀ ਮਹਿੰਗੀ, ਕੱਟ-ਐਜ AI ਦੀ ਨਕਲ ਕਰਨ ਵਾਲੇ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਦੇ ਵਿਰੁੱਧ ਇੱਕਜੁੱਟ ਮੋਰਚਾ ਬਣਾਉਂਦੇ ਹਨ। ਜਦੋਂ ਕਿ AI ਸੁਰੱਖਿਆ, ਨੈਤਿਕਤਾ, ਅਤੇ ਵਿਸ਼ੇਸ਼ ਹੱਲਾਂ ਵਿੱਚ ਤਰੱਕੀ ਉਦਯੋਗ ਨੂੰ ਆਕਾਰ ਦਿੰਦੀ ਰਹਿੰਦੀ ਹੈ, ਮਲਕੀਅਤ ਵਾਲੇ AI ਵਿਕਾਸ ਦੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਭਵਿੱਖ ਲਈ ਮੁੱਖ ਬੌਧਿਕ ਸੰਪਤੀ ਦੀ ਸੁਰੱਖਿਆ ਮਹੱਤਵਪੂਰਨ ਬਣੀ ਹੋਈ ਹੈ।

Get stock alerts instantly on WhatsApp

Quarterly results, bulk deals, concall updates and major announcements delivered in real time.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.