Google का TPU 8t और TPU 8i एजेंटिक AI को संबोधित करते हैं

Google का TPU 8t और TPU 8i एजेंटिक AI को संबोधित करते हैं

सर्च दिग्गज का कहना है कि इन्हें विशेष रूप से AI प्रशिक्षण (TPU 8t) और अनुमान (TPU 8i) और Google DeepMind के साथ काम करने के लिए डिज़ाइन किया गया है।

अमीन वाहदत, एआई और इन्फ्रास्ट्रक्चर के लिए Google के मुख्य प्रौद्योगिकीविद्एआई और इन्फ्रास्ट्रक्चर के लिए Google के मुख्य प्रौद्योगिकीविद् अमीन वाहदत लिखते हैं, “ये दो चिप्स हमारे कस्टम-निर्मित सुपर कंप्यूटरों को अत्याधुनिक मॉडल प्रशिक्षण और एजेंट विकास से लेकर बड़े पैमाने पर अनुमान कार्यभार तक सब कुछ संचालित करने के लिए डिज़ाइन किए गए हैं।”

“टीपीयू वर्षों से जेमिनी सहित अग्रणी फाउंडेशन मॉडल को शक्ति प्रदान कर रहे हैं। ये 8वीं पीढ़ी के टीपीयू एक साथ प्रशिक्षण, सेवा और एजेंटिक कार्यभार में पैमाने, दक्षता और क्षमताएं प्रदान करेंगे।”

घोषणा Google क्लाउड नेक्स्ट ’26 में की गई थी, लेकिन तकनीकी विवरण दुर्लभ हैं।

टीपीयू 8टी

Google का कहना है कि एक एकल TPU 8t सुपरपॉड (64 बोर्डों का एक अनुकूलित नेटवर्क) अब 9,600 चिप्स और दो पेटाबाइट साझा उच्च बैंडविड्थ मेमोरी तक पहुंच गया है। यह पिछली पीढ़ी की तुलना में दोगुनी इंटरचिप बैंडविड्थ के साथ है। इसमें कहा गया है कि आर्किटेक्चर 121 एक्साफ्लॉप्स कंप्यूट प्रदान करता है, जो सबसे जटिल मॉडल को मेमोरी के एकल, विशाल पूल का उपयोग करने की अनुमति देता है।

यह कंपनी का भी उपयोग करता है कन्या नेटवर्कजो JAX और Pathways सॉफ़्टवेयर के साथ एक AI-उन्मुख नेटवर्किंग सिस्टम है। इसका मतलब है, Google का कहना है, TPU 8t एक एकल तार्किक क्लस्टर में दस लाख चिप्स तक के लिए निकट-रेखीय स्केलिंग प्रदान कर सकता है।

मुराता ने पहनने योग्य वस्तुओं/स्वास्थ्य देखभाल के लिए पावर एएमआर सेंसर लॉन्च किए

TPU 8t और इसके पूर्ववर्ती, कोडनेम आयरनवुड की तुलना नीचे दिखाई गई है।

TPU 8t और इसके पूर्ववर्ती, कोडनेम आयरनवुड की तुलना

टीपीयू 8आई

TPU 8i के संदर्भ में, AI अनुमान के लिए, Google बताता है कि सिस्टम पिछली पीढ़ी की तुलना में प्रति पॉड लगभग 3x कंप्यूट प्रदर्शन प्रदान करता है।

विवरण में शामिल है कि TPU 8i में 384MB ऑन-चिप SRAM के साथ 288 जीबी हाई-बैंडविड्थ मेमोरी है। यह पिछली पीढ़ी की तुलना में 3 गुना अधिक है, और एक मॉडल के सक्रिय कामकाजी सेट को पूरी तरह से ऑन-चिप पर रख सकता है।

Google का यह भी कहना है कि उसने अपने कस्टम एक्सियन आर्म-आधारित सीपीयू की ओर बढ़ते हुए, प्रति सर्वर भौतिक सीपीयू होस्ट को दोगुना कर दिया है।

वाहदत कहते हैं, “अलगाव के लिए एक गैर-समान मेमोरी आर्किटेक्चर (एनयूएमए) का उपयोग करके, हमने बेहतर प्रदर्शन के लिए पूरी प्रणाली को अनुकूलित किया है।”

आधुनिक मिक्सचर ऑफ़ एक्सपर्ट (MoE) मॉडल के लिए, Google का कहना है कि उसने इंटरकनेक्ट (ICI) बैंडविड्थ को दोगुना कर 19.2 Tb/s कर दिया है। इसके नए बोर्डफ्लाई आर्किटेक्चर का लक्ष्य “अधिकतम नेटवर्क व्यास को 50% से अधिक कम करना है, यह सुनिश्चित करना कि सिस्टम एक एकजुट, कम-विलंबता इकाई के रूप में काम करता है”।

एक नया ऑन-चिप कलेक्टिव एक्सेलेरेशन इंजन (सीएई) वैश्विक संचालन को ऑफलोड करता है, अंतराल को कम करने के लिए ऑन-चिप विलंबता को 5x तक कम करता है।

फ़िल्म- अंड सेरियन-न्यूस्टार्ट्स मई 2026 में

आप इस Google पर और अधिक पढ़ सकते हैं ब्लॉग भेजा.

टीपीयू2

2017 में Google ने अपनी दूसरी पीढ़ी के TPU, TPU2 की घोषणा की, जो अब अपेक्षाकृत मामूली 45Tflops प्रदान करता है।

चार TPU2s वाला एक सिस्टम बोर्ड 180Tflops और 64 बोर्डों का एक अनुकूलित नेटवर्क, जिसे TPU पॉड कहा जाता है, 11.5 पेटाफ्लॉप्स प्रदान करेगा।

हमारी सभी Google सामग्री देखें.



Source link

Leave a Comment