- ■
एडब्ल्यूएस तैनात कर रहा है सेरेब्रस सीएस-3 चिप्स अपने डेटा केंद्रों में AWS ट्रेनियम के साथ, इसके माध्यम से पहुंच योग्य अमेज़ॅन बेडरॉक
- ■
हाइब्रिड समाधान एआई अनुमान त्वरण को लक्षित करता है, जो एक महत्वपूर्ण बाधा है क्योंकि कंपनियां भाषा मॉडल और एआई अनुप्रयोगों को मापती हैं
- ■
यह एनवीडिया-प्रभुत्व वाले एआई बुनियादी ढांचे के विकल्प की पेशकश करने के लिए एडब्ल्यूएस का अब तक का सबसे आक्रामक कदम है
- ■
प्रदर्शन बेंचमार्क और मूल्य निर्धारण विवरणों पर नज़र रखें क्योंकि उद्यम मौजूदा जीपीयू-आधारित तैनाती से स्विचिंग लागत का मूल्यांकन करते हैं
अमेज़न वेब सेवाएँ एआई बुनियादी ढांचे की दौड़ में अभी-अभी एक प्रमुख भूमिका निभाई है। क्लाउड दिग्गज चिप स्टार्टअप के साथ साझेदारी कर रहा है सेरेब्रस सिस्टम AWS ट्रेनियम प्रोसेसर को सेरेब्रस के CS-3 चिप्स के साथ संयोजित करने के लिए, दोनों कंपनियों का दावा है कि यह सबसे तेज़ AI अनुमान समाधान उपलब्ध होगा। अमेज़ॅन बेडरॉक. यह कदम संकेत देता है कि AWS प्रतिस्पर्धा करने के लिए विशेष सिलिकॉन पर बड़ा दांव लगा रहा है NVIDIA-संचालित विकल्प क्योंकि उद्यम तेज, सस्ते एआई परिनियोजन की मांग करते हैं।
अमेज़न वेब सेवाएँ एक अप्रत्याशित गठबंधन के साथ एआई चिप युद्ध को हिला रहा है। कंपनी ने घोषणा की कि वह एकीकृत हो रही है सेरेब्रस सिस्टम‘बड़े पैमाने पर CS-3 प्रोसेसर सीधे AWS डेटा केंद्रों में, एक हाइब्रिड अनुमान प्लेटफ़ॉर्म बनाते हैं जो सेरेब्रस सिलिकॉन को AWS के घरेलू ट्रेनियम चिप्स के साथ जोड़ता है। ग्राहक संयुक्त अश्वशक्ति तक पहुंच प्राप्त करेंगे अमेज़ॅन बेडरॉकफाउंडेशन मॉडल तैनात करने के लिए AWS की प्रबंधित सेवा।
साझेदारी उस समस्या का समाधान करती है जो एआई उद्योग की सबसे महंगी समस्या बन गई है – अनुमान लागत। जबकि विशाल भाषा मॉडल का प्रशिक्षण सुर्खियाँ बटोरता है, वास्तव में उन मॉडलों को बड़े पैमाने पर चलाने से कंप्यूटिंग संसाधनों और पूंजी की खपत होती है। चैटबॉट, कोड असिस्टेंट और एआई एजेंटों को तैनात करने वाली कंपनियां यह पता लगा रही हैं कि अनुमान व्यय प्रारंभिक प्रशिक्षण बजट को कम कर सकता है। एडब्ल्यूएस यह शर्त लगाई जा रही है कि सेरेब्रस का यह सहयोग कम हो जाएगा NVIDIA गति और कीमत दोनों पर H100-आधारित समाधान।
सेरेब्रस गंभीर सिलिकॉन क्रेडेंशियल्स को मेज पर लाता है। कंपनी की CS-3 चिप प्रसिद्ध रूप से विशाल है – लगभग एक डिनर प्लेट के आकार की – और एक वेफर पर 900,000 AI कोर पैक करती है। यह आर्किटेक्चर पारंपरिक जीपीयू क्लस्टर के साथ बिल्कुल विपरीत है जो सैकड़ों छोटे चिप्स को एक साथ जोड़ता है। सेरेब्रास ने प्रशिक्षण और अनुमान दोनों के लिए रिकॉर्ड-तोड़ गति का दावा किया है, हालांकि उद्यम को अपनाना एनवीडिया की प्रमुख स्थिति से पीछे है।









