அரசு ஒப்பந்தங்களில் தடை - Anthropic வழக்கு!
AI (Artificial Intelligence) துறையில் வேகமாக வளர்ந்து வரும் Anthropic நிறுவனம், அமெரிக்காவின் பல மத்திய ஏஜென்சிகளுக்கு எதிராக கலிஃபோர்னியாவில் உள்ள மாவட்ட நீதிமன்றத்தில் வழக்கு தொடர்ந்துள்ளது. கருவூலம் (Treasury), வர்த்தகம் (Commerce) மற்றும் பாதுகாப்பு (Defense) துறைகள் போன்ற அரசு அமைப்புகள், சட்டப்பூர்வமான நடைமுறைகள் அல்லது போதுமான ஆதாரங்கள் இன்றி தங்களது AI சிஸ்டம்களை அரசு ஒப்பந்தங்களில் இருந்து ஒதுக்கி வைத்ததாக Anthropic குற்றம் சாட்டுகிறது.
பாதுகாப்பு வரம்புகளே காரணமா?
இந்த பிரச்சனைக்கு முக்கிய காரணம் Anthropic-ன் AI மாடல்களான Claude-ல் உள்ள பாதுகாப்பு வரம்புகள்தான். உள்நாட்டு மக்களின் பெருமளவிலான கண்காணிப்பு (Mass Surveillance) அல்லது முழு தானியங்கி ஆயுதங்களுக்கு (Autonomous Weapons) பயன்படுத்துவதை தடுக்கும் வகையில் இந்த வரம்புகள் உள்ளன. ஆனால், பென்டகன் (Pentagon) தங்களது 'சப்ளை செயின் ரிஸ்க்' (Supply Chain Risk) என்ற காரணத்தை காட்டி தங்களை ஒதுக்குவது, தேசிய பாதுகாப்பிற்காக அல்ல, மாறாக தங்களது AI பாதுகாப்பு கொள்கைகளுக்காக பழிவாங்கும் நடவடிக்கை என Anthropic கருதுகிறது. இது உள்நாட்டு தொழில்நுட்ப நிறுவனத்தின் மீது அமெரிக்க அரசு இப்படி ஒரு தடையை விதிப்பது இதுவே முதல் முறை என்றும் கூறப்படுகிறது.
போட்டியாளர்கள் ஒப்பந்தங்களை அள்ளுகின்றன
அமெரிக்க அரசு AI-க்கான செலவினங்களை கணிசமாக அதிகரித்து வருகிறது. FY2026-ல் $2.7 பில்லியன் ஆக இருந்த AI செலவு, FY2028-ல் $3.1 பில்லியன் ஆக உயரும் என எதிர்பார்க்கப்படுகிறது. இந்த சூழலில், Anthropic போன்ற நிறுவனங்களுக்கு வாய்ப்புகள் மறுக்கப்படும்போது, OpenAI போன்ற போட்டியாளர்கள் அரசின் ஒப்பந்தங்களை எளிதாக பெறுகின்றனர். OpenAI சமீபத்தில் பாதுகாப்புத் துறையுடன் (Department of Defense) அதன் AI-ஐ இராணுவ நெட்வொர்க்குகளில் பயன்படுத்த ஒப்பந்தம் செய்துள்ளது. கூகிள் (Google) தனது 'Gemini for Government' சேவை மூலம் பாதுகாப்புத் துறைக்கு $200 மில்லியன் மதிப்பிலான ஒப்பந்தத்தைப் பெற்றுள்ளது. மைக்ரோசாஃப்ட் (Microsoft) Azure சேவைகள் மூலம் அமெரிக்க விமானப்படைக்கு $170.4 மில்லியன் ஒப்பந்தம் செய்துள்ளது.
$380 பில்லியன் மதிப்பீட்டில் பாதிப்பு?
கடந்த பிப்ரவரி 2026-ல் $30 பில்லியன் சீரிஸ் G நிதி திரட்டலின் போது, $380 பில்லியன் என்ற மிகப்பெரிய மதிப்பீட்டை Anthropic எட்டியது. தங்களது வருடாந்திர வருவாய் $14 பில்லியன்-ஐ தாண்டும் என எதிர்பார்க்கப்படும் நிலையில், மத்திய அரசு சந்தையில் இருந்து விலக்கப்படுவது ஒரு பெரிய சவாலாக உருவெடுத்துள்ளது. இது வருவாய் இழப்பை ஏற்படுத்துவதோடு மட்டுமல்லாமல், நிறுவனத்தின் நற்பெயருக்கும் களங்கம் விளைவிக்கலாம். மேலும், கூகிள் கிளவுட் மற்றும் மைக்ரோசாஃப்ட் அஸூர் போன்ற நிறுவனங்கள், Anthropic-ன் Claude சேவைகளை வணிக ரீதியாக வழங்குகின்றன. இவர்களுக்கு அரசு உத்தரவுகளுக்கும், வாடிக்கையாளர் சேவைகளுக்கும் இடையே ஒரு சமநிலையை பேணுவது கடினமாக இருக்கும்.
AI ஒழுங்குமுறைகளின் சிக்கல்
அமெரிக்காவில் AI தொடர்பான விதிமுறைகள் வேகமாக மாறி வருகின்றன. மத்திய அரசு AI கண்டுபிடிப்புகளை ஊக்குவிக்க முயல்கிறது. ஆனால், அதே சமயம் AI பயன்பாடுகள் குறித்த விவாதங்களும், ஒழுங்குமுறை நடவடிக்கைகளும் அதிகரித்து வருகின்றன. பென்டகன் வெளியிட்டுள்ள 'சப்ளை செயின் ரிஸ்க்' வகைப்பாடு, பிப்ரவரி 27, 2026 அன்று வெளியிடப்பட்ட முந்தைய உத்தரவின் அடிப்படையில், அனைத்து மத்திய அரசு செயல்பாடுகளிலும் Anthropic-ன் AI-ஐ தடை செய்யும் ஒரு நிர்வாக உத்தரவு (Executive Order) விரைவில் வர இருப்பதாகவும் கூறப்படுகிறது.
Anthropic-ன் எதிர்காலம் கேள்விக்குறியா?
AI பாதுகாப்பில் Anthropic காட்டும் கண்டிப்பான நிலைப்பாடு, தங்களை ஒரு முக்கிய சந்தையிலிருந்து ஒதுக்கி வைத்துள்ளது. இது OpenAI மற்றும் கூகிள் போன்ற போட்டியாளர்களை விட தங்களுக்கு ஒரு பின்னடைவை ஏற்படுத்துகிறது. உள்நாட்டு நிறுவனத்தின் மீது 'சப்ளை செயின் ரிஸ்க்' முத்திரை குத்தப்படுவது, நீண்ட சட்டப் போராட்டங்களுக்கும், நற்பெயருக்கு சேதம் ஏற்படவும் வழிவகுக்கும். இந்த ஒழுங்குமுறை சவால், Anthropic-ன் வளர்ச்சியை மெதுவாக்கி, அதன் போட்டித்தன்மையை குறைக்கக்கூடும். குறிப்பாக, மற்ற சந்தைகளும் இதேபோன்ற கட்டுப்பாடுகளை விதித்தால், Anthropic-ன் $380 பில்லியன் மதிப்பீட்டை தக்கவைப்பது கேள்விக்குறியாகலாம்.