ਅੱਜ ਦੇ ਸਮੇਂ ਵਿੱਚ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵੱਧ ਰਹੀ ਹੈ, ਪਰ ਇਸ ਲਈ ਲੋੜੀਂਦੇ ਭਾਰੀ-ਭਰਕਮ ਕਲਾਊਡ ਇਨਫਰਾਸਟ੍ਰਕਚਰ (Cloud Infrastructure) ਬਾਰੇ ਗੱਲ ਘੱਟ ਹੁੰਦੀ ਹੈ। ਲੰਡਨ ਦੀ ਸਟਾਰਟਅੱਪ Mirai, ਜਿਸ ਦੀ ਸਥਾਪਨਾ Reface ਅਤੇ Prisma ਵਰਗੀਆਂ ਸਫਲ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੇ ਦਿੱਗਜ Dima Shvets ਅਤੇ Alexey Moiseenkov ਨੇ ਕੀਤੀ ਹੈ, ਇਸ ਧਾਰਨਾ ਨੂੰ ਚੁਣੌਤੀ ਦੇ ਰਹੀ ਹੈ। ਕੰਪਨੀ ਨੇ $10 ਮਿਲੀਅਨ ਦੀ ਸੀਡ ਫੰਡਿੰਗ (Seed Funding) ਹਾਸਲ ਕੀਤੀ ਹੈ। ਇਸ ਪੈਸੇ ਨਾਲ ਉਹ AI ਮਾਡਲਾਂ ਨੂੰ ਸਿੱਧੇ ਯੂਜ਼ਰ ਡਿਵਾਈਸਾਂ (ਜਿਵੇਂ ਸਮਾਰਟਫੋਨ, ਲੈਪਟਾਪ) 'ਤੇ ਵਧੇਰੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਅਤੇ ਕੁਸ਼ਲਤਾ ਨਾਲ ਚਲਾਉਣ 'ਤੇ ਕੰਮ ਕਰੇਗੀ।
ਇਹ ਫੰਡਿੰਗ ਕਲਾਊਡ-ਆਧਾਰਿਤ AI ਇਨਫਰੈਂਸ (Cloud-based AI Inference) 'ਤੇ ਨਿਰਭਰਤਾ ਦੀਆਂ ਆਰਥਿਕ ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ ਸੰਬੰਧੀ ਸੀਮਾਵਾਂ ਨੂੰ ਦੂਰ ਕਰਨ ਲਈ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਜਨਰੇਟਿਵ AI (Generative AI) ਦਾ ਇਸਤੇਮਾਲ ਵਧ ਰਿਹਾ ਹੈ, ਕਲਾਊਡ ਕੰਪਿਊਟ (Cloud Compute), ਡਾਟਾ ਟ੍ਰਾਂਸਫਰ (Data Transfer) ਅਤੇ ਐਨਰਜੀ (Energy) ਦੀਆਂ ਲਾਗਤਾਂ ਕਾਫੀ ਜ਼ਿਆਦਾ ਹੋ ਰਹੀਆਂ ਹਨ। Mirai ਦਾ ਉਦੇਸ਼ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਡਿਵਾਈਸਾਂ ਦੀ ਵਧ ਰਹੀ ਸਮਰੱਥਾ ਦਾ ਫਾਇਦਾ ਉਠਾ ਕੇ ਮਹਿੰਗੇ ਅਤੇ ਲੇਟੈਂਸੀ-ਪ੍ਰੋਨ (Latency-prone) ਕਲਾਊਡ ਸੋਲਿਊਸ਼ਨਾਂ (Cloud Solutions) ਦਾ ਬਦਲ ਪੇਸ਼ ਕਰਨਾ ਹੈ।
Edge AI ਲਈ ਆਰਥਿਕ ਲੋੜ
ਮੌਜੂਦਾ AI ਸਿਸਟਮਾਂ ਵਿੱਚ ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਕਲਾਊਡ ਕੰਪਿਊਟਿੰਗ (Cloud Computing) ਦਾ ਖਰਚਾ ਸ਼ਾਮਲ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਰਿਟੇਲ ਵੀਡੀਓ ਐਨਾਲਿਟਿਕਸ (Retail Video Analytics) ਵਰਗੇ ਕੰਮਾਂ ਲਈ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਨੂੰ ਸਾਲਾਨਾ ਲੱਖਾਂ ਡਾਲਰ ਖਰਚਣੇ ਪੈ ਸਕਦੇ ਹਨ। ਇੱਕ ਸਿੰਗਲ NVIDIA A100 GPU ਦੀ ਕੀਮਤ ਲਗਾਤਾਰ ਵਰਤੋਂ ਲਈ ਸਾਲਾਨਾ $40,000 ਤੋਂ ਵੱਧ ਹੋ ਸਕਦੀ ਹੈ, ਅਤੇ ਸਿਰਫ ਡਾਟਾ ਟ੍ਰਾਂਸਫਰ (Data Transfer) ਦੇ ਖਰਚੇ ਵੀ ਕਾਫੀ ਜ਼ਿਆਦਾ ਹੁੰਦੇ ਹਨ। ਇਹ ਆਰਥਿਕ ਦਬਾਅ Edge Computing ਸੋਲਿਊਸ਼ਨਾਂ ਵੱਲ ਤਬਦੀਲੀ ਨੂੰ ਹੁਲਾਰਾ ਦੇ ਰਿਹਾ ਹੈ। ਅਧਿਐਨਾਂ ਤੋਂ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ AI ਇਨਫਰੈਂਸ (AI Inference) ਨੂੰ ਸਮਾਰਟਫੋਨ ਵਰਗੇ ਉਪਭੋਗਤਾ ਡਿਵਾਈਸਾਂ 'ਤੇ ਲਿਆਉਣ ਨਾਲ ਕਲਾਊਡ ਪ੍ਰੋਸੈਸਿੰਗ (Cloud Processing) ਦੇ ਮੁਕਾਬਲੇ ਐਨਰਜੀ ਦੀ ਖਪਤ 95% ਤੱਕ ਅਤੇ ਕਾਰਬਨ ਫੁੱਟਪ੍ਰਿੰਟ (Carbon Footprint) 88% ਤੱਕ ਘੱਟ ਸਕਦਾ ਹੈ। On-Device AI ਮਾਰਕੀਟ ਦੇ 2032 ਤੱਕ $124 ਬਿਲੀਅਨ ਤੱਕ ਪਹੁੰਚਣ ਦਾ ਅਨੁਮਾਨ ਹੈ, ਜੋ ਸਥਾਨਕ AI (Localized AI) ਲਈ ਮਜ਼ਬੂਤ ਬਾਜ਼ਾਰ ਦੀ ਮੰਗ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।
Mirai ਦਾ ਟੈਕਨੀਕਲ ਪਲੜਾ: Rust ਅਤੇ Apple Silicon
Mirai ਦੀ ਮੁੱਖ ਨਵੀਨਤਾ (Innovation) ਇਸਦਾ ਆਪਣਾ Rust ਪ੍ਰੋਗਰਾਮਿੰਗ ਭਾਸ਼ਾ ਵਿੱਚ ਬਣਾਇਆ ਗਿਆ ਇਨਫਰੈਂਸ ਇੰਜਣ (Inference Engine) ਹੈ। Rust ਆਪਣੀ ਸ਼ਾਨਦਾਰ ਪਰਫਾਰਮੈਂਸ (Performance), ਮੈਮਰੀ ਸੇਫਟੀ (Memory Safety) ਅਤੇ ਕੰਕਰੰਸੀ (Concurrency) ਸਮਰੱਥਾਵਾਂ ਲਈ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਜੋ ਇਸਨੂੰ AI ਵਰਗੇ ਡਿਮਾਂਡਿੰਗ ਕੰਮਾਂ ਲਈ ਇੱਕ ਆਦਰਸ਼ ਚੋਣ ਬਣਾਉਂਦਾ ਹੈ। ਕੰਪਨੀ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਇਹ ਇੰਜਣ Apple Silicon 'ਤੇ AI ਮਾਡਲਾਂ ਦੀ ਸਪੀਡ (Speed) ਨੂੰ 37% ਤੱਕ ਵਧਾ ਸਕਦਾ ਹੈ, ਅਤੇ ਇਹ ਵੀ ਬਿਨਾਂ ਆਊਟਪੁੱਟ (Output) ਦੀ ਕੁਆਲਿਟੀ (Quality) ਨਾਲ ਕੋਈ ਸਮਝੌਤਾ ਕੀਤੇ। ਇਹ ਪਹੁੰਚ ਨੇੜੇ-ਤੇੜੇ ਜ਼ੀਰੋ ਲੇਟੈਂਸੀ (Zero Latency) ਅਤੇ ਮਜ਼ਬੂਤ ਪ੍ਰਾਈਵੇਸੀ (Privacy) ਗਾਰੰਟੀ ਪ੍ਰਦਾਨ ਕਰਨਾ ਹੈ, ਜੋ ਸੰਵੇਦਨਸ਼ੀਲ ਖਪਤਕਾਰ ਐਪਲੀਕੇਸ਼ਨਾਂ (Consumer Applications) ਲਈ ਜ਼ਰੂਰੀ ਹੈ। ਆਉਣ ਵਾਲਾ SDK ਡਿਵੈਲਪਰਾਂ (Developers) ਲਈ ਇਸਨੂੰ ਆਪਣੇ ਐਪਸ ਵਿੱਚ ਜੋੜਨਾ ਆਸਾਨ ਬਣਾਵੇਗਾ।
ਮੁਕਾਬਲਾ ਅਤੇ ਬੁਨਿਆਦੀ ਤਾਕਤ
Mirai ਇੱਕ ਮੁਕਾਬਲੇ ਵਾਲੇ ਪਰ ਤੇਜ਼ੀ ਨਾਲ ਵਧ ਰਹੇ ਬਾਜ਼ਾਰ ਵਿੱਚ ਦਾਖਲ ਹੋ ਰਹੀ ਹੈ। Quadric ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਵੀ On-Device AI ਚਿੱਪਾਂ ਲਈ ਇਨਫਰੈਂਸ ਇੰਜਣ ਵਿਕਸਿਤ ਕਰ ਰਹੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਇਸਦੇ ਸੰਸਥਾਪਕਾਂ ਦਾ ਪਿਛਲਾ ਤਜਰਬਾ ਇੱਕ ਵੱਡਾ ਫਾਇਦਾ ਹੈ; Dima Shvets ਨੇ Reface ਦੀ ਸਥਾਪਨਾ ਕੀਤੀ ਸੀ, ਜਿਸਦੇ 300 ਮਿਲੀਅਨ ਤੋਂ ਵੱਧ ਡਾਊਨਲੋਡ ਹਨ, ਅਤੇ Alexey Moiseenkov ਨੇ Prisma ਵਰਗੀ ਮਸ਼ਹੂਰ AI ਫਿਲਟਰ ਐਪ ਬਣਾਈ ਸੀ। ਖਪਤਕਾਰ ਐਪਲੀਕੇਸ਼ਨਾਂ ਅਤੇ ਮੋਬਾਈਲ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ AI ਦੀ ਵਰਤੋਂ ਦੀਆਂ ਬਾਰੀਕੀਆਂ ਦੀ ਉਨ੍ਹਾਂ ਦੀ ਡੂੰਘੀ ਸਮਝ Mirai ਨੂੰ ਇੱਕ ਮਜ਼ਬੂਤ ਬੁਨਿਆਦ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ।
ਚੁਣੌਤੀਆਂ ਅਤੇ ਭਵਿੱਖ
ਇਸਦੇ ਬਾਵਜੂਦ, Mirai ਨੂੰ ਕਈ ਚੁਣੌਤੀਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਵੇਗਾ। On-Device AI ਦਾ ਬਾਜ਼ਾਰ ਬਹੁਤ ਪ੍ਰਤੀਯੋਗੀ ਹੈ, ਜਿਸ ਵਿੱਚ Apple ਅਤੇ Qualcomm ਵਰਗੇ ਵੱਡੇ ਹਾਰਡਵੇਅਰ ਨਿਰਮਾਤਾ ਆਪਣੇ ਖੁਦ ਦੇ AI ਏਕਸਲਰੇਸ਼ਨ (AI Acceleration) ਅਤੇ ਫਰੇਮਵਰਕ (Frameworks) ਨੂੰ ਏਕੀਕ੍ਰਿਤ ਕਰ ਰਹੇ ਹਨ। ਸ਼ੁਰੂ ਵਿੱਚ Apple Silicon 'ਤੇ ਫੋਕਸ ਕਰਨਾ ਇੱਕ ਰਣਨੀਤਕ ਕਦਮ ਹੈ, ਪਰ Android ਅਤੇ ਹੋਰ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਵਿਸਤਾਰ ਲਈ ਕਾਫੀ ਇੰਜੀਨੀਅਰਿੰਗ ਮਿਹਨਤ ਦੀ ਲੋੜ ਹੋਵੇਗੀ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਇੱਕ ਨਵਾਂ SDK ਅਪਣਾਉਣ ਲਈ ਪ੍ਰੇਰਿਤ ਕਰਨਾ ਵੀ ਇੱਕ ਚੁਣੌਤੀ ਹੋਵੇਗੀ। Mirai ਦਾ ਟੀਚਾ ਇੱਕ 'LLM OS' ਬਣਾਉਣਾ ਹੈ ਜੋ On-Device AI ਲਈ ਇੱਕ ਭਰੋਸੇਮੰਦ ਫਾਊਂਡੇਸ਼ਨ ਪ੍ਰਦਾਨ ਕਰੇ। ਕੰਪਨੀ ਸ਼ੁਰੂ ਵਿੱਚ ਟੈਕਸਟ (Text) ਅਤੇ ਵੌਇਸ (Voice) ਮੋਡੈਲਿਟੀਜ਼ (Modalities) ਦਾ ਸਮਰਥਨ ਕਰੇਗੀ, ਅਤੇ ਭਵਿੱਖ ਵਿੱਚ ਵਿਜ਼ਨ (Vision) ਨੂੰ ਵੀ ਸ਼ਾਮਲ ਕਰੇਗੀ। ਉਹ ਹਾਈਬ੍ਰਿਡ ਕਲਾਊਡ-ਡਿਵਾਈਸ (Hybrid Cloud-Device) ਓਪਰੇਸ਼ਨਾਂ ਲਈ ਇੱਕ ਆਰਕੈਸਟ੍ਰੇਸ਼ਨ ਲੇਅਰ (Orchestration Layer) ਵੀ ਵਿਕਸਿਤ ਕਰ ਰਹੇ ਹਨ, ਜੋ ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਸਾਰੀਆਂ AI ਪ੍ਰਕਿਰਿਆਵਾਂ ਸਿਰਫ Edge 'ਤੇ ਨਹੀਂ ਹੋ ਸਕਦੀਆਂ।