Anthropic vs. U.S. સરકાર: AI પ્રતિબંધ અને $380 બિલિયન વેલ્યુએશન પર સંકટ, કંપનીએ કર્યો કેસ

TECH
Whalesbook Logo
AuthorAman Ahuja|Published at:
Anthropic vs. U.S. સરકાર: AI પ્રતિબંધ અને $380 બિલિયન વેલ્યુએશન પર સંકટ, કંપનીએ કર્યો કેસ
Overview

AI કંપની Anthropic એ યુ.એસ.ની ફેડરલ એજન્સીઓ સામે ગેરકાયદેસર રીતે સરકારી કોન્ટ્રાક્ટ્સમાંથી બ્લેકલિસ્ટ કરવાનો આરોપ લગાવ્યો છે. કંપનીનો દાવો છે કે AI માટેના સેફ્ટી લિમિટ્સ (Safety Limits) દૂર કરવાનો ઇનકાર કરવા બદલ બદલો લેવાઈ રહ્યો છે. લગભગ **$380 બિલિયન** વેલ્યુએશન ધરાવતી આ કંપની માટે આ એક મોટો નિયમનકારી (Regulatory) પડકાર છે.

Instant Stock Alerts on WhatsApp

Used by 10,000+ active investors

1

Add Stocks

Select the stocks you want to track in real time.

2

Get Alerts on WhatsApp

Receive instant updates directly to WhatsApp.

  • Quarterly Results
  • Concall Announcements
  • New Orders & Big Deals
  • Capex Announcements
  • Bulk Deals
  • And much more

સરકારી કોન્ટ્રાક્ટ્સમાંથી ગેરકાયદેસર બ્લેકલિસ્ટ કરવાનો આરોપ

Anthropic એ યુ.એસ. ડિસ્ટ્રિક્ટ કોર્ટ ફોર ધ નોર્ધન ડિસ્ટ્રિક્ટ ઓફ કેલિફોર્નિયામાં કેસ દાખલ કર્યો છે. કંપનીનો આરોપ છે કે ટ્રેઝરી, કોમર્સ અને ડિફેન્સ જેવા ફેડરલ વિભાગોએ કાયદેસર પ્રક્રિયાઓ કે પુરાવા વિના તેની AI ટેકનોલોજીને સરકારી કોન્ટ્રાક્ટ્સથી બાકાત રાખી છે. આ વિવાદનું મુખ્ય કારણ Anthropic દ્વારા તેના Claude AI મોડલ્સને ઘરેલુ સામૂહિક સર્વેલન્સ (Mass Surveillance) અથવા સંપૂર્ણ સ્વાયત્ત શસ્ત્રો (Autonomous Weapons) માટે ઉપયોગમાં લેવાતા રોકવા માટેના સેફ્ટી પ્રતિબંધોને દૂર કરવાનો ઇનકાર છે. Anthropic દાવો કરે છે કે પેન્ટાગોન દ્વારા 'સપ્લાય ચેઇન રિસ્ક' (Supply Chain Risk) નું લેબલ લગાવવું એ રાષ્ટ્રીય સુરક્ષા સંબંધિત નથી, પરંતુ તેના AI સેફ્ટી સિદ્ધાંતો માટે બદલો લેવાનો પ્રયાસ છે, જે તેના અધિકારોનું ઉલ્લંઘન કરે છે. એવી પણ માહિતી છે કે વ્હાઇટ હાઉસ એક એક્ઝિક્યુટિવ ઓર્ડર (Executive Order) તૈયાર કરી રહ્યું છે જે ફેડરલ ઓપરેશન્સમાં Anthropic ના AI પર પ્રતિબંધ મૂકશે.

પ્રતિસ્પર્ધીઓ કોન્ટ્રાક્ટ્સ મેળવી રહ્યા છે, Anthropic પાછળ

આ કાનૂની લડાઈ એવા સમયે થઈ રહી છે જ્યારે યુ.એસ. સરકાર AI નો ઉપયોગ ઝડપથી વધારી રહી છે. ફેડરલ AI ખર્ચ FY2026 માં $2.7 બિલિયન થી વધીને FY2028 સુધીમાં $3.1 બિલિયન થવાની ધારણા છે. Anthropic ને બાકાત રાખવામાં આવી રહ્યું છે જ્યારે તેના પ્રતિસ્પર્ધીઓએ સફળતાપૂર્વક સરકારી કોન્ટ્રાક્ટ્સ મેળવ્યા છે. ઉદાહરણ તરીકે, OpenAI એ તાજેતરમાં જ ડિપાર્ટમેન્ટ ઓફ ડિફેન્સ સાથે તેના AI નો ઉપયોગ ક્લાસિફાઇડ મિલિટરી નેટવર્ક્સ પર કરવા માટે કરાર કર્યો છે. Google પણ તેના 'Gemini for Government' ઓફરિંગ દ્વારા એક મોટો ફેડરલ AI પ્લેયર છે, જેની પાસે DoD ના ચીફ ડિજિટલ એન્ડ આર્ટિફિશિયલ ઇન્ટેલિજન્સ ઓફિસને મદદ કરવા માટે $200 મિલિયન નો કોન્ટ્રાક્ટ છે. Microsoft, જે OpenAI માં એક મુખ્ય ક્લાઉડ પ્રોવાઇડર અને રોકાણકાર છે, તેની પાસે પણ નોંધપાત્ર ફેડરલ કોન્ટ્રાક્ટ્સ છે, જેમાં યુ.એસ. એરફોર્સ સાથે Azure ક્લાઉડ સેવાઓ માટે $170.4 મિલિયન નો ડીલ શામેલ છે. GSA ની 'OneGov' પહેલ ખરીદી પ્રક્રિયાને સુવ્યવસ્થિત કરે છે, જેમાં અગાઉ Anthropic, OpenAI અને Google ને મંજૂર AI વિક્રેતાઓ તરીકે સૂચિબદ્ધ કરવામાં આવ્યા હતા. હવે Anthropic આ સ્પર્ધાત્મક ક્ષેત્રમાંથી દૂર થઈ શકે છે.

$380 બિલિયન વેલ્યુએશન પર સરકારી પ્રતિબંધની અસર

Anthropic, જે ફેબ્રુઆરી 2026 માં $30 બિલિયન ની સિરીઝ G ફંડિંગ રાઉન્ડ પછી અંદાજે $380 બિલિયન ના વેલ્યુએશન પર પહોંચી ગયું છે, તેને એક મોટો વ્યૂહાત્મક અવરોધનો સામનો કરવો પડી રહ્યો છે. જ્યારે તેનું વેલ્યુએશન રોકાણકારોના મજબૂત વિશ્વાસ અને $14 બિલિયન થી વધુના વાર્ષિક રેવન્યુ રન-રેટ (Annual Revenue Run-Rate) દર્શાવે છે, ત્યારે ફેડરલ સરકારના બજારમાંથી બહાર રહેવું એ ગંભીર પડકાર છે. AI ફર્મ્સ માટે વિશ્વસનીયતા અને સ્કેલ હાંસલ કરવા માટે સરકારી કોન્ટ્રાક્ટ્સ ખૂબ જ મહત્વપૂર્ણ છે. આ વિવાદ માત્ર સંભવિત આવક ગુમાવવાનો નથી, પરંતુ Anthropic ની પ્રતિષ્ઠાને પણ નુકસાન પહોંચાડી શકે છે, જે ભાગીદારી અને ભવિષ્યના ભંડોળને અસર કરી શકે છે. Google Cloud અને Microsoft Azure જેવા ક્લાઉડ જાયન્ટ્સ, જે Anthropic ના Claude ને કોમર્શિયલ ધોરણે ઓફર કરે છે, તેમણે ગ્રાહકોને ટેકો આપવા અને સરકારી આદેશો વચ્ચે સંતુલન જાળવવું પડશે. આનાથી એક વિભાજિત બજાર ઊભું થાય છે જ્યાં AI મોડલ્સ સંરક્ષણ કાર્ય માટે પ્રતિબંધિત છે પરંતુ વાણિજ્યિક ઉપયોગ માટે ઉપલબ્ધ છે.

જટિલ યુ.એસ. AI નિયમનકારી માળખામાં નેવિગેટ કરવું

આ વિવાદ અમેરિકામાં AI નિયમોના વિકસતા જતા માળખા સામે આવી રહ્યો છે. ટ્રમ્પ વહીવટીતંત્રે AI માં ફેડરલ નેતૃત્વને પ્રોત્સાહન આપ્યું છે, જેમાં નવીનતાને વેગ આપવા અને અવરોધોને દૂર કરવા પર ભાર મૂકવામાં આવ્યો છે, જ્યારે અમુક AI એપ્લિકેશન્સને 'woke' ગણાવીને ટીકા પણ કરી છે. આ અભિગમનો એક મહત્વપૂર્ણ ભાગ એ છે કે ફેડરલ સરકાર રાજ્ય AI કાયદાઓને ઓવરરાઇડ કરે, જે દેશભરમાં નિયમોનું એક જાળું બનાવે છે. વહીવટીતંત્રે રાષ્ટ્રીય નીતિ સાથે વિરોધાભાસી રાજ્ય કાયદાઓ સામે લડવા માટે AI લિટિગેશન ટાસ્ક ફોર્સ (AI Litigation Task Force) ની રચના કરી છે, જે AI પર કેન્દ્રીયકૃત ફેડરલ નિયંત્રણ તરફ સંકેત આપે છે. GSA ની OneGov વ્યૂહરચના જેવા પ્રયાસોમાં જોવા મળતી ફેડરલ દેખરેખ અને સમાન પ્રાપ્તિ (Procurement) ની આ ડ્રાઇવ, AI કંપનીઓને તકનીકી પ્રગતિ, રાષ્ટ્રીય સુરક્ષા મુદ્દાઓ અને વધતા સરકારી નિયમનના મધ્યમાં મૂકે છે.

Anthropic ની માર્કેટ પોઝિશન માટે જોખમો વધી રહ્યા છે

AI સેફ્ટી પર Anthropic નું મજબૂત વલણ, જે નૈતિક રીતે યોગ્ય છે, તેના કારણે તે એક મુખ્ય બજારમાંથી બાકાત થઈ ગયું છે, જેનાથી તેના ઉચ્ચ વેલ્યુએશન પર જોખમ ઊભું થયું છે. આ OpenAI અને Google જેવા પ્રતિસ્પર્ધીઓની સરખામણીમાં તેને વ્યૂહાત્મક ગેરલાભમાં મૂકે છે, જેઓ વ્યાપક સરકારી AI ઉપયોગને ટેકો આપવા માટે વધુ તૈયાર જણાય છે. યુ.એસ. કંપની પર લાગુ કરાયેલ 'સપ્લાય ચેઇન રિસ્ક' લેબલ, તેમજ અપેક્ષિત એક્ઝિક્યુટિવ ઓર્ડર, લાંબા કાનૂની સંઘર્ષો અને તેની પ્રતિષ્ઠાને સંભવિત નુકસાનની સંભાવના વધારે છે. આ નિયમનકારી પડકાર Anthropic ને સંરક્ષણાત્મક સ્થિતિમાં ધકેલી શકે છે, તેની વૃદ્ધિ અને ઉચ્ચ સ્તરે સ્પર્ધા કરવાની ક્ષમતાને ધીમી કરી શકે છે, ખાસ કરીને જો અન્ય બજારો સમાન પ્રતિબંધો અપનાવે. એક મુખ્ય ચિંતા એ છે કે શું Anthropic નું વર્તમાન $380 બિલિયન વેલ્યુએશન સરકારી AI પ્રાપ્તિ ક્ષેત્રમાં પ્રવેશ વિના ટકી શકે છે, જ્યાં સ્પર્ધકો પહેલેથી જ નોંધપાત્ર પ્રવેશ કરી રહ્યા છે.

Get stock alerts instantly on WhatsApp

Quarterly results, bulk deals, concall updates and major announcements delivered in real time.

Disclaimer:This content is for educational and informational purposes only and does not constitute investment, financial, or trading advice, nor a recommendation to buy or sell any securities. Readers should consult a SEBI-registered advisor before making investment decisions, as markets involve risk and past performance does not guarantee future results. The publisher and authors accept no liability for any losses. Some content may be AI-generated and may contain errors; accuracy and completeness are not guaranteed. Views expressed do not reflect the publication’s editorial stance.