वर्षों से, की कहानीडेटा सेंटरऊर्जा की खपत में पूर्वानुमानित चाप का अनुसरण किया गया। निश्चित रूप से डिजिटलीकरण बढ़ रहा था, लेकिन बेहतर सर्वर, वर्चुअलाइजेशन और क्लाउड समेकन से दक्षता में वृद्धि ने कुल बिजली उपयोग को आश्चर्यजनक रूप से स्थिर रखा। एक दशक के अधिकांश समय में वैश्विक डेटा सेंटर बिजली की मांग कुल बिजली खपत का लगभग 1 प्रतिशत - लगभग 200 टेरावाट-घंटे सालाना - रही।
वह युग ख़त्म हो रहा है.
जेनेरेटिव एआई, क्रिप्टोकरेंसी माइनिंग, एज कंप्यूटिंग के अभिसरण और कनेक्टेड डिवाइसों की तेजी से वृद्धि ने पुराने दक्षता वक्र को तोड़ दिया है। उद्योग के अनुमान अब दिखाते हैं कि डेटा सेंटर बिजली की मांग वार्षिक दर से बढ़ रही है जो 2000 के दशक की शुरुआत से नहीं देखी गई। कुछ क्षेत्रों में - आयरलैंड, उत्तरी वर्जीनिया, सिंगापुर - डेटा सेंटर पहले से ही कुल बिजली खपत का 15 से 25 प्रतिशत हिस्सा लेते हैं, जिससे नियामकों को नए निर्माण पर रोक लगाने के लिए मजबूर होना पड़ता है।
इस पृष्ठभूमि में, बुनियादी ढांचे के विकल्प जो एक बार तकनीकी विवरण की तरह लगते थे - कूलिंग आर्किटेक्चर, बिजली वितरण टोपोलॉजी, रैक घनत्व योजना - बोर्डरूम निर्णय बन गए हैं। ऊर्जा लागत अब एक लाइन आइटम नहीं है. यह विकास में बाधक है।
पावर उपयोग प्रभावशीलता, या PUE, लगभग दो दशकों से डेटा सेंटर उद्योग की मानक दक्षता मीट्रिक रही है। यह एक सरल अनुपात है: कुल सुविधा शक्ति को आईटी उपकरण शक्ति से विभाजित किया जाता है।
2.0 के PUE का मतलब है कि प्रत्येक वॉट पावर सर्वर और स्टोरेज के लिए, एक और वॉट कूलिंग, लाइटिंग, पावर रूपांतरण हानि और अन्य ओवरहेड पर जाता है। 1.2 के PUE का मतलब है कि ओवरहेड प्रति आईटी वाट केवल 0.2 वाट की खपत करता है।
उद्योग ने मोटे तौर पर PUE पर आधारित स्तरों को स्वीकार कर लिया है:
| स्तर | प्यू | डीसीआईई | इसका क्या मतलब है |
|---|---|---|---|
| प्लैटिनम | <1.25 | >0.80 | विश्व स्तरीय दक्षता के लिए आमतौर पर मुफ्त शीतलन या तरल शीतलन की आवश्यकता होती है |
| सोना | 1.25 – 1.43 | 0.70 – 0.80 | बहुत कुशल, मध्यम जलवायु में आधुनिक डिज़ाइन के साथ प्राप्त करने योग्य |
| चाँदी | 1.43 – 1.67 | 0.60 – 0.70 | पुरानी सुविधाओं या गर्म जलवायु के लिए स्वीकार्य |
| पीतल | 1.67 – 2.00 | 0.50 – 0.60 | प्रमुख रेट्रोफ़िट के बिना पुराने डेटा केंद्रों के लिए विशिष्ट |
| गोरा | 2.00 – 2.50 | 0.40 - 0.50 | खराब दक्षता, उच्च परिचालन लागत |
| गरीब | >2.50 | <0.40 | गंभीर अक्षमता पर तत्काल ध्यान देने की संभावना है |
समस्या यह है कि कई संगठन वास्तव में अपने PUE को नहीं जानते हैं। उनका अनुमान है. वे अनुमान लगाते हैं. या वे केवल मुख्य उपयोगिता मीटर पर मापते हैं और बाकी मान लेते हैं।
2023 के एक उद्योग सर्वेक्षण में पाया गया कि लगभग 40 प्रतिशत डेटा सेंटर ऑपरेटरों ने कभी भी रैक स्तर पर PUE को नहीं मापा था। ऐसा करने वालों में, रिपोर्ट किए गए और वास्तविक PUE के बीच का प्रसार औसतन 0.3 अंक था - जो किसी को भी ध्यान दिए बिना किसी सुविधा को सोने से चांदी में स्थानांतरित करने के लिए पर्याप्त था।
यह समझना कि PUE इतने व्यापक रूप से भिन्न क्यों होता है, यह देखने से शुरू होता है कि डेटा सेंटर से बिजली कहाँ निकलती है।
1.8 के आसपास PUE के साथ एक सामान्य एयर-कूल्ड सुविधा में, ब्रेकडाउन लगभग इस तरह दिखता है:
शीतलन भार सबसे बड़ा परिवर्तनशील है। समशीतोष्ण जलवायु में मुफ्त शीतलन के लिए बाहरी हवा का उपयोग करने वाली एक सुविधा अपनी गैर-आईटी शक्ति का केवल 15 प्रतिशत शीतलन पर खर्च कर सकती है। साल भर यांत्रिक शीतलन के साथ उष्णकटिबंधीय जलवायु में एक ही सुविधा 40 प्रतिशत खर्च कर सकती है।
यही कारण है कि कोलोकेशन प्रदाता सुविधा स्तर पर PUE का विज्ञापन करते हैं, लेकिन ग्राहक मीटर पर PUE वितरित करते हैं - अलग-अलग संख्याएँ, अलग-अलग निहितार्थ। ग्राहक इसके लिए भुगतान करता है।
पारंपरिक डेटा सेंटर प्रबंधन ने अपेक्षाकृत स्थिर वातावरण ग्रहण किया। रैक महीनों या वर्षों में भरे जाते थे। शीतलन को धीरे-धीरे समायोजित किया जा सकता है। पहले दिन से ही बिजली वितरण पर निगरानी रखी गई।
मेघ युग ने धारणाएँ बदल दीं। रैक अब कई दिनों में भर जाते हैं। कार्यभार स्वचालित रूप से सर्वर पर स्थानांतरित हो जाता है। उच्च-घनत्व वाले एआई क्लस्टर आसन्न सामान्य-उद्देश्यीय कंप्यूट रैक की तुलना में तीन गुना अधिक शक्ति प्राप्त कर सकते हैं।
इन परिवर्तनों ने बुनियादी ढांचे प्रबंधन पर पुनर्विचार करने को मजबूर कर दिया है। तीन रुझान सामने आते हैं.
सबसे पहले, घनत्व असमान रूप से बढ़ रहा है।एक दशक पहले एक मानक सर्वर रैक 5-8 किलोवाट का होता था। आज, सामान्य प्रयोजन के रैक 10-15 किलोवाट का उपयोग करते हैं। उच्च-प्रदर्शन कंप्यूटिंग और एआई प्रशिक्षण रैक नियमित रूप से प्रति रैक 30 किलोवाट से अधिक होते हैं। कुछ 50 किलोवाट से अधिक हैं।
इससे थर्मल प्रबंधन चुनौतियाँ पैदा होती हैं जिन्हें हल करने में एयर कूलिंग को संघर्ष करना पड़ता है। 20 किलोवाट प्रति रैक पर, वायु शीतलन उचित रोकथाम के साथ प्रभावी रहता है। 30 किलोवाट पर, यह सीमांत हो जाता है। 40 किलोवाट और उससे अधिक पर, तरल शीतलन वैकल्पिक से आवश्यक हो जाता है।
दूसरा, क्षमता नियोजन पूर्वानुमानित हो गया है।पुरानी पद्धति - आवश्यकता से अधिक क्षमता खरीदें और उसे बेकार पड़े रहने दें - अब बड़े पैमाने पर काम नहीं करती है। निष्क्रिय क्षमता में पूंजीगत लागत और चालू रखरखाव लागत दोनों होती है।
आधुनिक बुनियादी ढाँचा प्रबंधन प्रणालियाँ ऐतिहासिक डेटा और कार्यभार पूर्वानुमान का उपयोग करके भविष्यवाणी करती हैं कि बिजली, कूलिंग या रैक स्थान कब खत्म हो जाएगा। सर्वोत्तम प्रणालियाँ किसी बाधा के गंभीर होने से कुछ दिन या सप्ताह पहले यह सिफारिश कर सकती हैं कि मौजूदा क्षमता को फिर से कॉन्फ़िगर करना है या नए हार्डवेयर का ऑर्डर देना है।
तीसरा, दृश्यता आवश्यकताएँ पूर्व हैंपान्डेड.एक पारंपरिक डेटा सेंटर पीडीयू स्तर पर बिजली को ट्रैक कर सकता है। एक आधुनिक सुविधा को रैक स्तर पर, कभी-कभी सर्वर स्तर पर, और कार्यभार स्तर पर अधिक से अधिक दृश्यता की आवश्यकता होती है - यह जानना कि कौन सी वर्चुअल मशीन या कंटेनर कौन सी शक्ति खींचती है।
डेटा सेंटर इन्फ्रास्ट्रक्चरप्रबंधन (डीसीआईएम) सॉफ्टवेयर एक दशक से अधिक समय से अस्तित्व में है, लेकिन इसे अपनाना असमान बना हुआ है। आधे से भी कम एंटरप्राइज़ डेटा केंद्रों ने पूर्ण DCIM प्रणाली तैनात की है। कई लोगों ने इसकी क्षमताओं का केवल एक अंश ही उपयोग किया।
उचित रूप से कार्यान्वित DCIM प्रणाली चार कार्य करती है:
परिसंपत्ति प्रबंधन।प्रत्येक सर्वर, स्विच, पीडीयू और कूलिंग यूनिट को कॉन्फ़िगरेशन प्रबंधन डेटाबेस (सीएमडीबी) में ट्रैक किया जाता है। स्थान, बिजली रेटिंग, नेटवर्क कनेक्शन, रखरखाव इतिहास - यह सब। यह बुनियादी लगता है, लेकिन कई संगठन अभी भी स्प्रेडशीट में परिसंपत्तियों को ट्रैक करते हैं जो अपडेट के बीच महीनों तक चलते हैं।
वास्तविक समय में निगरानी।पीडीयू या रैक स्तर पर पावर ड्रा, आपूर्ति और वापसी बिंदुओं पर तापमान और आर्द्रता, शीतलन प्रणाली की स्थिति, यूपीएस बैटरी स्वास्थ्य। जब पैरामीटर सेटपॉइंट से विचलित होते हैं तो अलार्म चालू हो जाता है। लक्ष्य डाउनटाइम का कारण बनने से पहले समस्याओं का पता लगाना है।
क्षमता की योजना बनाना।सिस्टम को पता है कि कितनी बिजली और शीतलन क्षमता उपलब्ध है, कितनी उपयोग में है और भविष्य में तैनाती के लिए कितनी आरक्षित है। यह एक नए उच्च-घनत्व रैक को जोड़ने या पुराने सर्वरों के एक सेट को रिटायर करने के प्रभाव को मॉडल कर सकता है।
विज़ुअलाइज़ेशन.डेटा सेंटर का एक डिजिटल ट्विन - रैक दर रैक, टाइल दर टाइल - वर्तमान स्थितियों को दिखाता है और ऑपरेटरों को परिवर्तनों का अनुकरण करने की अनुमति देता है। पंक्ति तीन, कॉलम चार में 10 किलोवाट लोड जोड़ना: क्या यह शीतलन क्षमता से अधिक है? किसी के भी उपकरण ले जाने से पहले सिस्टम जवाब दे देता है।
डेटा सेंटर की ऊर्जा खपत में कटौती करना रहस्यमय नहीं है। तरीके अच्छी तरह से समझ में आ गए हैं. चुनौती कार्यान्वयन अनुशासन है।
आपूर्ति हवा का तापमान बढ़ाएँ।अधिकांश डेटा सेंटर ठंडे तापमान पर चलते हैं - कूलिंग यूनिट रिटर्न पर 18 से 20 डिग्री सेल्सियस - क्योंकि ऑपरेटरों ने हमेशा यही किया है। ASHRAE दिशानिर्देश अब 24 से 27 डिग्री की अनुशंसा करते हैं। प्रत्येक डिग्री वृद्धि से शीतलन ऊर्जा में लगभग 4 प्रतिशत की कटौती होती है। 20 डिग्री के बजाय 26 डिग्री पर चलने से 20-25 प्रतिशत कूलिंग पावर की बचत होती है।
गर्म और ठंडी हवा के मिश्रण को हटा दें।गर्म-गलियारे की रोकथाम, ठंडी-गलियारे की रोकथाम, या ऊर्ध्वाधर निकास नलिकाएं ठंडी हवा को रैक के सामने से छोटी-छोटी साइकिल चलाने के बजाय वहां जाने के लिए मजबूर करती हैं जहां इसकी आवश्यकता होती है। अकेले रोकथाम से आम तौर पर शीतलन ऊर्जा 15-25 प्रतिशत कम हो जाती है।
परिवर्तनशील गति वाली ड्राइव का उपयोग करें।लगातार गति वाले पंखे और पंप आंशिक लोड पर ऊर्जा बर्बाद करते हैं। परिवर्तनीय गति ड्राइव वास्तविक मांग के अनुसार वायु प्रवाह और जल प्रवाह से मेल खाते हैं। रेट्रोफिट पेबैक अवधि आम तौर पर 1-3 वर्ष होती है।
यूपीएस ऑपरेशन को अनुकूलित करें।अधिकांश यूपीएस सिस्टम लगातार दोहरे-रूपांतरण मोड में चलते हैं - उपयोगिता बिजली साफ होने पर भी एसी को डीसी और वापस एसी में परिवर्तित करते हैं। जब बिजली की गुणवत्ता अनुमति देती है तो आधुनिक यूपीएस सिस्टम इको-मोड में स्विच कर सकते हैं, जिससे 94-96 प्रतिशत के बजाय 99 प्रतिशत दक्षता प्राप्त होती है। यदि उपयोगिता बिजली विफल हो जाती है तो ट्रेडऑफ़ बैटरी में एक संक्षिप्त स्थानांतरण समय है। ऐसे स्थानांतरणों के लिए डिज़ाइन की गई बिजली आपूर्ति वाले आईटी लोड के लिए जोखिम न्यूनतम है।
उच्च-वोल्टेज वितरण को अपनाएं।208V के बजाय 415V पर बिजली वितरित करने से वितरण हानि लगभग 25 प्रतिशत कम हो जाती है। इसके लिए संगत पीडीयू और सर्वर बिजली आपूर्ति की आवश्यकता होती है, लेकिन कई आधुनिक उपकरण इसका समर्थन करते हैं।
शांगयु सीपीएसवाई कंपनीडेटा सेंटर इंफ्रास्ट्रक्चर पर ध्यान केंद्रित करने वाला एक उच्च तकनीक उद्यम, अपने मॉड्यूलर डेटा सेंटर समाधानों के लिए 1.3 के PUE की रिपोर्ट करता है। यह कंपनी को प्लैटिनम की ओर बढ़ते हुए गोल्ड टियर में रखता है।
पारंपरिक डिज़ाइनों की तुलना में दावा किया गया 25 प्रतिशत ऊर्जा बचत कई कारकों से आती है। सिस्टम स्तर पर 97.4 प्रतिशत दक्षता वाले मॉड्यूलर यूपीएस सिस्टम वितरण घाटे को कम करते हैं जो अन्यथा 15-20 प्रतिशत तक चलते हैं। परिवर्तनीय गति कंप्रेसर और ईसी प्रशंसकों के साथ सटीक एयर कंडीशनर निश्चित क्षमता पर चलने के बजाय वास्तविक ताप भार से मेल खाने के लिए कूलिंग आउटपुट को समायोजित करते हैं। और भौतिक लेआउट - गर्म गलियारे की रोकथाम, इष्टतम रैक रिक्ति, उचित आकार की छिद्रित टाइलों के साथ ऊंचा फर्श - वायु प्रवाह प्रबंधन को संबोधित करता है जो कई अन्यथा कुशल सुविधाओं को कमजोर करता है।
कंपनी के प्रमाणन पोर्टफोलियो में ISO 9001 (गुणवत्ता प्रबंधन) और ISO 27001 (सूचना सुरक्षा प्रबंधन) शामिल हैं। इसके ग्राहक परिनियोजन में संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम, जर्मनी, फ्रांस और ऑस्ट्रेलिया में निर्यात प्रतिष्ठानों के साथ हुआवेई, जेडटीई और इंसपुर के साथ साझेदारी शामिल है।
वर्षों से, सुपरकंप्यूटिंग केंद्रों के लिए लिक्विड कूलिंग एक विशिष्ट तकनीक थी। वह तेजी से बदल रहा है.
NVIDIA H100 या आगामी B200 GPU का उपयोग करने वाले AI प्रशिक्षण क्लस्टर पूरी तरह से एयर-कूल्ड कॉन्फ़िगरेशन में प्रति रैक 30-50 किलोवाट उत्पन्न करते हैं। इन घनत्वों पर, वायु शीतलन के लिए उच्च वायु प्रवाह दर की आवश्यकता होती है - तेज़ पंखे, गहरे रैक और फिर भी सीमांत थर्मल नियंत्रण।
डायरेक्ट-टू-चिप तरल शीतलन स्रोत पर 60-80 प्रतिशत गर्मी को हटा देता है। चिप्स ठंडे चलते हैं. पंखे धीमे चलते हैं. कमरे का एयर कंडीशनर केवल बिजली आपूर्ति, मेमोरी और अन्य घटकों से बची हुई गर्मी को संभालता है।
दक्षता लाभ पर्याप्त है. डायरेक्ट-टू-चिप कूलिंग वाली सुविधाएं 1.1 से 1.2 के PUE मान रिपोर्ट करती हैं। ट्रेडऑफ़ में उच्च पूंजी लागत, अधिक जटिल रिसाव प्रबंधन और सुविधा-ग्रेड जल उपचार की आवश्यकता शामिल है।
पूर्ण विसर्जन शीतलन - पूरे सर्वर को ढांकता हुआ तरल पदार्थ में डुबाना - PUE को 1.1 से नीचे धकेलता है लेकिन विशिष्ट बना रहता है। अधिकांश वाणिज्यिक डेटा केंद्र पहले डायरेक्ट-टू-चिप कूलिंग को अपनाएंगे, बाद में विशिष्ट उच्च-घनत्व वाले क्षेत्रों के लिए विसर्जन को अपनाएंगे।
SHANGYU डेटा सेंटर प्लेटफ़ॉर्म में वायु और तरल शीतलन आर्किटेक्चर दोनों के लिए प्रावधान शामिल हैं, यह मानते हुए कि भविष्य में उच्च-घनत्व तैनाती के लिए सुविधा डिज़ाइन की परवाह किए बिना द्रव-आधारित थर्मल प्रबंधन की आवश्यकता होगी।
अधिकांश डेटा सेंटर संचालन टीमें अभी भी प्रतिक्रियात्मक रूप से काम करती हैं। एक अलार्म बजता है. कोई जांच करता है. एक फिक्स लागू किया गया है. चक्र दोहराता है.
पूर्वानुमानित प्रबंधन में परिवर्तन के लिए तीन क्षमताओं की आवश्यकता होती है जिनकी कई संगठनों में कमी होती है।
पूर्ण कॉन्फ़िगरेशन डेटा.यह जानना कि डेटा सेंटर में क्या है - प्रत्येक सर्वर, प्रत्येक स्विच, प्रत्येक पीडीयू, प्रत्येक शीतलन इकाई - आधार है। सटीक सीएमडीबी डेटा के बिना, क्षमता योजना अनुमान लगाना है।
दानेदार टेलीमेट्री.रैक-स्तरीय बिजली माप न्यूनतम है। प्रति-सर्वर पावर माप बेहतर है। कार्यभार-स्तर का पावर एट्रिब्यूशन सबसे अच्छा है लेकिन इसे हासिल करना सबसे कठिन है।
एनालिटिक्स जो सिग्नल को शोर से अलग करता है।एक रैक पर तापमान बढ़ने का मतलब पंखा खराब होना हो सकता है। आधे डेटा सेंटर में तापमान बढ़ने का मतलब चिलर की विफलता हो सकता है। सिस्टम को अंतर करने और तदनुसार प्रतिक्रियाओं की अनुशंसा करने की आवश्यकता है।
SHANGYU का DCIM प्लेटफ़ॉर्म SNMP और मॉडबस डिवाइस समर्थन, वेब-आधारित और विंडोज़ एप्लिकेशन इंटरफ़ेस और इवेंट-ट्रिगर इमेजिंग के लिए नेटवर्क कैमरों के साथ एकीकरण प्रदान करता है। बताए गए लक्ष्य सीधे हैं: महंगे डाउनटाइम को कम करना, पूर्ण पर्यावरण नियंत्रण के माध्यम से दैनिक परिचालन लागत में कटौती करना, और प्रबंधन दृश्यता और पता लगाने की क्षमता में सुधार करना।
डेटा सेंटर ऊर्जा खपत वैश्विक बिजली मांग का लगभग 1 प्रतिशत है। जब तक संदर्भ में न रखा जाए, यह संख्या छोटी लगती है। यह लगभग यूनाइटेड किंगडम की कुल बिजली खपत के बराबर है।
इससे भी महत्वपूर्ण बात यह है कि विकास दर तेज हो रही है। उद्योग के अनुमानों से पता चलता है कि 2030 तक डेटा सेंटर बिजली की मांग सालाना 10-15 प्रतिशत बढ़ रही है, जो एआई, क्लाउड अपनाने और कनेक्टेड डिवाइसों के निरंतर विस्तार से प्रेरित है। उस दर पर, डेटा सेंटर दशक के अंत तक वैश्विक बिजली का 3-4 प्रतिशत उपभोग करेंगे।
पिछले दशक में बिजली की खपत को स्थिर रखने वाली दक्षता में वृद्धि सर्वर वर्चुअलाइजेशन (भौतिक सर्वर गिनती को कम करना), बेहतर ड्राइव दक्षता (स्पिनिंग डिस्क से एसएसडी तक बढ़ना), और फ्री कूलिंग की व्यापक तैनाती (यांत्रिक प्रशीतन के बजाय बाहरी हवा का उपयोग) से हुई थी। नीचे लटकने वाले फलों को बड़े पैमाने पर तोड़ लिया गया है।
दक्षता की अगली लहर तरल शीतलन, उच्च-वोल्टेज वितरण, एआई-अनुकूलित शीतलन नियंत्रण और - शायद सबसे महत्वपूर्ण - बुनियादी ढांचे की क्षमता और वास्तविक आईटी भार के बीच बेहतर संरेखण से आएगी। उस अंतिम भाग के लिए उस तरह की वास्तविक समय दृश्यता और पूर्वानुमानित विश्लेषण की आवश्यकता होती है जो डीसीआईएम सिस्टम प्रदान करता है लेकिन कुछ सुविधाएं पूरी तरह से उपयोग करती हैं।
क्या आप अपना वास्तविक PUE जानते हैं, स्पेक शीट पर नंबर नहीं?यदि आपने यूपीएस आउटपुट और आईटी उपकरण इनपुट पर माप नहीं किया है, तो आप नहीं जानते हैं। अंतर आपका वास्तविक उपरिव्यय है।
क्या आपके कूलिंग सिस्टम एक दूसरे से लड़ रहे हैं?कई डेटा केंद्रों में, CRAC इकाइयाँ ओवरलैपिंग तापमान और आर्द्रता बैंड के साथ सेट की जाती हैं। एक इकाई निरार्द्रीकरण करती है जबकि दूसरी आर्द्रीकरण करती है। एक ठंडा होता है जबकि दूसरा दोबारा गर्म होता है। यह असामान्य नहीं है. यह भी कारगर नहीं है.
आपके सर्वर का निष्क्रिय पावर ड्रा क्या है?उद्योग डेटा से पता चलता है कि विशिष्ट एंटरप्राइज़ सर्वर कुछ भी नहीं करने पर अपनी चरम शक्ति का 30-40 प्रतिशत उपयोग करते हैं। अप्रयुक्त सर्वरों को बंद करना या निष्क्रिय करना उपलब्ध उच्चतम-आरओआई दक्षता उपाय है। यह सबसे ज्यादा नजरअंदाज भी किया जाता है.
क्या आप उपकरण विनिर्देशों का उल्लंघन किए बिना अपनी आपूर्ति हवा का तापमान दो डिग्री तक बढ़ा सकते हैं?संभवतः हाँ. अधिकांश उपकरण 25-27 डिग्री सेवन तापमान के लिए रेट किए गए हैं। अधिकांश डेटा सेंटर 20-22 डिग्री पर चलते हैं। वह छह डिग्री का अंतर वर्षों की अनावश्यक शीतलन ऊर्जा का प्रतिनिधित्व करता है।
पिछली बार आपने अपनी यूपीएस दक्षता का सत्यापन कब किया था?नेमप्लेट दक्षता को सही पावर फैक्टर के साथ पूर्ण लोड पर मापा जाता है। वास्तविक-विश्व शक्ति कारक के साथ आंशिक भार पर वास्तविक-विश्व दक्षता 5-10 अंक कम हो सकती है।