वर्षौंको लागि, कथाडाटा केन्द्रऊर्जा खपतले अनुमानित चाप पछ्यायो। डिजिटलाइजेशन बढ्दै थियो, निश्चित, तर राम्रो सर्भरहरू, भर्चुअलाइजेशन, र क्लाउड समेकनबाट दक्षता लाभले कुल बिजुलीको प्रयोगलाई आश्चर्यजनक रूपमा समतल राख्यो। ग्लोबल डाटा सेन्टर पावरको माग कुल बिजुली खपतको लगभग 1 प्रतिशत हो - लगभग 200 टेरावाट-घण्टा वार्षिक - एक दशकको राम्रो भागको लागि।
त्यो युगको अन्त्य हुँदैछ ।
जेनेरेटिभ एआई, क्रिप्टोकरेन्सी माइनिङ, एज कम्प्युटिङ, र जडान भएका उपकरणहरूको घातीय वृद्धिको अभिसरणले पुरानो दक्षता वक्र तोडेको छ। उद्योग अनुमानहरूले अब डाटा सेन्टरको पावर माग वार्षिक दरमा बढ्दै गएको देखाउँदछ जुन 2000 को प्रारम्भमा देखिएन। केही क्षेत्रहरूमा — आयरल्यान्ड, उत्तरी भर्जिनिया, सिंगापुर — डाटा सेन्टरहरूले पहिले नै कुल बिजुली खपतको 15 देखि 25 प्रतिशतको लागि जिम्मेवार छन्, जसले नियामकहरूलाई नयाँ निर्माणमा रोक लगाउन बाध्य पारेको छ।
यस पृष्ठभूमिमा, पूर्वाधार छनौटहरू जुन एक पटक प्राविधिक विवरणहरू जस्तै देखिन्थ्यो - कूलिंग आर्किटेक्चर, पावर वितरण टोपोलोजी, र्याक घनत्व योजना - बोर्डरूम निर्णयहरू भएका छन्। ऊर्जा लागत अब एक लाइन वस्तु छैन। यो वृद्धिमा बाधा छ।
पावर उपयोग प्रभावकारिता, वा PUE, लगभग दुई दशकदेखि डाटा केन्द्र उद्योगको मानक दक्षता मेट्रिक भएको छ। यो एक साधारण अनुपात हो: कुल सुविधा शक्ति IT उपकरण शक्ति द्वारा विभाजित।
२.० को PUE को अर्थ प्रत्येक वाट पावर गर्ने सर्भर र भण्डारणको लागि, अर्को वाट कूलिङ, प्रकाश, पावर रूपान्तरण घाटा, र अन्य ओभरहेडमा जान्छ। १.२ को PUE भनेको ओभरहेडले प्रति IT वाट मात्र ०.२ वाट खपत गर्छ।
उद्योगले PUE मा आधारित स्तरहरू व्यापक रूपमा स्वीकार गरेको छ:
| स्तर | PUE | DCiE | यसको अर्थ के हो |
|---|---|---|---|
| प्लेटिनम | <1.25 | > ०.८० | विश्व-स्तरीय दक्षता, सामान्यतया नि: शुल्क शीतलन वा तरल कूलिंग चाहिन्छ |
| सुन | १.२५ - १.४३ | ०.७० - ०.८० | धेरै कुशल, मध्यम मौसम मा आधुनिक डिजाइन संग प्राप्त |
| चाँदी | १.४३ - १.६७ | ०.६० - ०.७० | पुराना सुविधाहरू वा तातो मौसमको लागि स्वीकार्य |
| कांस्य | १.६७ - २.०० | ०.५० - ०.६० | प्रमुख रेट्रोफिटहरू बिना लिगेसी डेटा केन्द्रहरूको लागि सामान्य |
| निष्पक्ष | 2.00 - 2.50 | ०.४० - ०.५० | खराब दक्षता, उच्च परिचालन लागत |
| गरिब | >2.50 | <०.४० | आलोचनात्मक असक्षमता, सम्भवतः तत्काल ध्यान आवश्यक छ |
समस्या यो हो कि धेरै संस्थाहरूलाई वास्तवमा उनीहरूको PUE थाहा छैन। अनुमान गर्छन् । अनुमान गर्छन् । वा तिनीहरूले मुख्य उपयोगिता मिटरमा मात्र मापन गर्छन् र बाँकी मान्छन्।
एक 2023 उद्योग सर्वेक्षणले पत्ता लगायो कि लगभग 40 प्रतिशत डाटा सेन्टर अपरेटरहरूले र्याक स्तरमा PUE मापन गरेका थिएनन्। गर्नेहरू मध्ये, रिपोर्ट गरिएको र वास्तविक PUE बीचको फैलावट औसत ०.३ बिन्दु थियो - कसैले ध्यान नदिई सुनबाट चाँदीमा सुविधा सार्न पर्याप्त।
PUE किन यति व्यापक रूपमा भिन्न हुन्छ भन्ने कुरा बुझ्दा पावरले डाटा सेन्टरलाई कहाँ छोड्छ भनेर हेरेर सुरु हुन्छ।
1.8 वरिपरि PUE भएको सामान्य एयर-कूल्ड सुविधामा, ब्रेकडाउन लगभग यस्तो देखिन्छ:
कूलिङ लोड सबैभन्दा ठूलो चर हो। समशीतोष्ण हावापानीमा नि:शुल्क चिसोका लागि बाहिरी हावा प्रयोग गर्ने सुविधाले यसको गैर-आईटी पावरको १५ प्रतिशत मात्र चिसोमा खर्च गर्न सक्छ। उष्णकटिबंधीय मौसममा मेकानिकल चिसो वर्षभरिको समान सुविधाले 40 प्रतिशत खर्च गर्न सक्छ।
यसैले कोलोकेशन प्रदायकहरूले सुविधा स्तरमा PUE को विज्ञापन गर्छन् तर ग्राहक मिटरमा PUE डेलिभर गर्छन् — फरक नम्बरहरू, फरक प्रभावहरू। ग्राहकले यो सबैको लागि भुक्तान गर्दछ।
परम्परागत डाटा केन्द्र व्यवस्थापनले अपेक्षाकृत स्थिर वातावरण ग्रहण गर्यो। र्याकहरू महिना वा वर्षहरूमा भरिएको थियो। शीतलन बिस्तारै समायोजित गर्न सकिन्छ। विद्युत वितरण पहिलो दिनदेखि नै बढेको छ ।
बादल युगले अनुमानहरू परिवर्तन गर्यो। र्याकहरू अब दिनहरूमा भरिन्छन्। वर्कलोडहरू स्वचालित रूपमा सर्भरहरूमा परिवर्तन हुन्छ। उच्च-घनत्व एआई क्लस्टरहरूले छेउछाउको सामान्य-उद्देश्य कम्प्युट र्याकहरूको तीन गुणा शक्ति तान्न सक्छ।
यी परिवर्तनहरूले पूर्वाधार व्यवस्थापनमा पुनर्विचार गर्न बाध्य पारेको छ। तीन प्रवृतिहरू बाहिर खडा छन्।
पहिलो, घनत्व असमान रूपमा बढ्दै छ।एक दशक पहिले मानक सर्भर र्याकले 5-8 किलोवाट तान्यो। आज, सामान्य-उद्देश्य रैकहरू 10-15 किलोवाट आकर्षित गर्छन्। उच्च प्रदर्शन कम्प्युटिङ र एआई प्रशिक्षण र्याकहरू नियमित रूपमा प्रति र्याक 30 किलोवाट भन्दा बढी छन्। केहि 50 किलोवाट भन्दा बढी।
यसले थर्मल व्यवस्थापन चुनौतीहरू सिर्जना गर्दछ जुन एयर कूलिंगले समाधान गर्न संघर्ष गर्दछ। 20 किलोवाट प्रति र्याकमा, हावा कूलिंग उचित कन्टेनमेन्टको साथ प्रभावकारी रहन्छ। 30 किलोवाट मा, यो मार्जिनल हुन्छ। 40 किलोवाट र माथि, तरल कूलिंग वैकल्पिकबाट आवश्यकमा सर्छ।
दोस्रो, क्षमता योजना भविष्यवाणी भएको छ।पुरानो विधि - आवश्यक भन्दा बढी क्षमता किन्नुहोस् र यसलाई निष्क्रिय बस्न दिनुहोस् - अब मापन मा काम गर्दैन। निष्क्रिय क्षमता दुवै पूंजी लागत र जारी मर्मत लागत छ।
आधुनिक पूर्वाधार व्यवस्थापन प्रणालीहरूले पावर, कूलिङ, वा र्याक स्पेस कहिले समाप्त हुनेछ भनेर भविष्यवाणी गर्न ऐतिहासिक डेटा र कार्यभार पूर्वानुमान प्रयोग गर्दछ। उत्तम प्रणालीहरूले अवस्थित क्षमतालाई पुन: कन्फिगर गर्ने वा नयाँ हार्डवेयर अर्डर गर्ने, प्रतिबन्ध महत्त्वपूर्ण हुन दिन वा हप्ता अघि सिफारिस गर्न सक्छ।
तेस्रो, दृश्यता आवश्यकताहरू पूर्व छन्प्यान्ड गरिएको।परम्परागत डेटा केन्द्रले PDU स्तरमा पावर ट्र्याक गर्न सक्छ। आधुनिक सुविधालाई र्याक स्तरमा दृश्यता चाहिन्छ, कहिलेकाहीँ सर्भर स्तरमा, र बढ्दो वर्कलोड स्तरमा - कुन भर्चुअल मेसिन वा कन्टेनरले कुन पावर ड्राइभ गर्छ भन्ने थाहा पाउँछ।
डाटा केन्द्र पूर्वाधारव्यवस्थापन (DCIM) सफ्टवेयर एक दशक भन्दा बढीको लागि अवस्थित छ, तर अपनाउने असमान रहन्छ। इन्टरप्राइज डाटा केन्द्रहरूको आधा भन्दा कमले पूर्ण DCIM प्रणाली तैनात गरेको छ। धेरै जसले आफ्नो क्षमताको एक अंश मात्र प्रयोग गरे।
राम्रोसँग लागू गरिएको DCIM प्रणालीले चारवटा कुरा गर्छ:
सम्पत्ति व्यवस्थापन।प्रत्येक सर्भर, स्विच, PDU, र कूलिङ एकाइ कन्फिगरेसन व्यवस्थापन डाटाबेस (CMDB) मा ट्र्याक गरिन्छ। स्थान, पावर मूल्याङ्कन, नेटवर्क जडानहरू, मर्मत इतिहास — यो सबै। यो आधारभूत सुनिन्छ, तर धेरै संस्थाहरूले अझै पनि स्प्रेडसिटहरूमा सम्पत्तिहरू ट्र्याक गर्छन् जुन अद्यावधिकहरू बीच महिनौं जान्छ।
वास्तविक समय निगरानी।PDU वा र्याक स्तरमा पावर ड्र, आपूर्ति र फिर्ता बिन्दुहरूमा तापक्रम र आर्द्रता, शीतलन प्रणाली स्थिति, UPS ब्याट्री स्वास्थ्य। सेटपोइन्टहरूबाट प्यारामिटरहरू विचलित हुँदा अलार्म ट्रिगर हुन्छ। लक्ष्य भनेको तिनीहरूले डाउनटाइम निम्त्याउनु अघि समस्याहरू पत्ता लगाउनु हो।
क्षमता योजना।प्रणालीलाई कति पावर र शीतलन क्षमता उपलब्ध छ, कति प्रयोगमा छ, र भविष्यको तैनातीका लागि कति आरक्षित छ भन्ने थाहा हुन्छ। यसले नयाँ उच्च-घनत्व र्याक थप्ने वा पुरानो सर्भरहरूको सेट रिटायर गर्ने प्रभावलाई मोडेल गर्न सक्छ।
भिजुअलाइजेशन।डाटा सेन्टरको डिजिटल जुम्ल्याहा — र्याकद्वारा र्याक, टाइलद्वारा टाइल — वर्तमान अवस्थाहरू देखाउँछ र अपरेटरहरूलाई परिवर्तनहरू अनुकरण गर्न अनुमति दिन्छ। पङ्क्ति तीन, स्तम्भ चारमा 10 किलोवाट लोड थप्दै: के त्यो कूलिंग क्षमता भन्दा बढी छ? कसैले उपकरण सार्न अघि प्रणाली जवाफ दिन्छ।
डाटा केन्द्र ऊर्जा खपत कटौती रहस्यमय छैन। विधिहरू राम्ररी बुझेका छन्। चुनौती कार्यान्वयन अनुशासन हो।
आपूर्ति हावाको तापमान बढाउनुहोस्।धेरैजसो डाटा सेन्टरहरू चिसो चल्छन् — कूलिङ एकाइ रिटर्नमा १८ देखि २० डिग्री सेल्सियस — किनभने अपरेटरहरूले सधैं यस्तै गरेका छन्। ASHRAE दिशानिर्देशहरूले अब 24 देखि 27 डिग्री सिफारिस गर्दछ। प्रत्येक डिग्री वृद्धिले शीतलन ऊर्जा लगभग 4 प्रतिशतले घटाउँछ। 20 डिग्रीको सट्टा 26 डिग्रीमा दौड्दा 20-25 प्रतिशत कूलिंग पावर बचत हुन्छ।
तातो र चिसो हावा मिश्रण हटाउनुहोस्।तातो गलियारे कन्टेन्मेन्ट, चिसो-एजल कन्टेनमेन्ट, वा ठाडो निकास नलिकाहरूले र्याकको अगाडि छोटो साइकल चलाउनुको सट्टा चिसो हावालाई आवश्यक पर्ने ठाउँमा जान बाध्य पार्छ। केवल कन्टेनमेन्टले सामान्यतया 15-25 प्रतिशतले शीतल ऊर्जा घटाउँछ।
चर गति ड्राइव प्रयोग गर्नुहोस्।स्थिर गतिका फ्यानहरू र पम्पहरूले आंशिक लोडमा ऊर्जा बर्बाद गर्छन्। चर गति ड्राइभहरू वायुप्रवाह र पानीको प्रवाहलाई वास्तविक मागसँग मेल खान्छ। रिट्रोफिट पेब्याक अवधि सामान्यतया 1-3 वर्ष हो।
UPS सञ्चालन अप्टिमाइज गर्नुहोस्।धेरै जसो UPS प्रणालीहरू लगातार दोहोरो-रूपान्तरण मोडमा चल्छन् — AC लाई DC मा रूपान्तरण गर्दै र उपयोगिता पावर सफा हुँदा पनि AC मा फिर्ता। आधुनिक UPS प्रणालीहरूले इको-मोडमा स्विच गर्न सक्छन् जब पावर गुणस्तर अनुमति दिन्छ, 94-96 प्रतिशतको सट्टा 99 प्रतिशत दक्षता हासिल गर्दै। युटिलिटी पावर असफल भएमा ट्रेडअफ ब्याट्रीमा छोटो स्थानान्तरण समय हो। यस्तो स्थानान्तरणको लागि डिजाइन गरिएको पावर आपूर्तिहरू सहित IT लोडहरूको लागि, जोखिम न्यून छ।
उच्च भोल्टेज वितरण अपनाउनुहोस्।208V को सट्टा 415V मा बिजुली वितरण गर्दा वितरण घाटा लगभग 25 प्रतिशतले कम हुन्छ। यसका लागि उपयुक्त PDU हरू र सर्भर पावर आपूर्तिहरू चाहिन्छ, तर धेरै आधुनिक उपकरणहरूले यसलाई समर्थन गर्दछ।
Shangyu CPSY कम्पनी, डाटा सेन्टर पूर्वाधारमा फोकस भएको उच्च-टेक उद्यमले यसको मोड्युलर डाटा सेन्टर समाधानहरूको लागि 1.3 को PUE रिपोर्ट गर्दछ। यसले कम्पनीलाई गोल्ड टियरमा राख्छ, प्लेटिनम तिर जान्छ।
दावी गरिएको 25 प्रतिशत ऊर्जा बचत परम्परागत डिजाइनहरूको तुलनामा धेरै कारकहरूबाट आउँछ। प्रणाली स्तरमा 97.4 प्रतिशत दक्षताको साथ मोड्युलर UPS प्रणालीहरूले वितरण घाटा कम गर्छ जुन अन्यथा 15-20 प्रतिशत चल्छ। चर स्पीड कम्प्रेसरहरू र EC फ्यानहरू भएका सटीक वातानुकूलितहरूले निश्चित क्षमतामा चल्नुको सट्टा वास्तविक तातो भारसँग मेल खाने कूलिंग आउटपुट समायोजन गर्दछ। र भौतिक रूपरेखा - तातो-एसल कन्टेनमेन्ट, इष्टतम र्याक स्पेसिङ, राम्रोसँग आकारको छिद्रित टाइलहरू सहितको भुइँ - वायुप्रवाह व्यवस्थापनलाई सम्बोधन गर्दछ जसले धेरै अन्यथा कुशल सुविधाहरूलाई कमजोर बनाउँछ।
कम्पनीको प्रमाणीकरण पोर्टफोलियोमा ISO 9001 (गुणवत्ता व्यवस्थापन) र ISO 27001 (सूचना सुरक्षा व्यवस्थापन) समावेश छ। यसको ग्राहक डिप्लोइमेन्टमा संयुक्त राज्य अमेरिका, युनाइटेड किंगडम, जर्मनी, फ्रान्स र अष्ट्रेलियामा निर्यात स्थापनाहरू सहित Huawei, ZTE, र Inspur सँग साझेदारीहरू समावेश छन्।
वर्षौंको लागि, तरल चिसो सुपरकम्प्युटिङ केन्द्रहरूको लागि एक आला प्रविधि थियो। त्यो द्रुत गतिमा परिवर्तन हुँदैछ।
NVIDIA H100 वा आगामी B200 GPUs प्रयोग गर्ने AI प्रशिक्षण क्लस्टरहरूले विशुद्ध एयर-कूल्ड कन्फिगरेसनहरूमा 30-50 किलोवाट प्रति र्याक उत्पन्न गर्दछ। यी घनत्वहरूमा, हावा कूलिंगको लागि उच्च वायु प्रवाह दरहरू चाहिन्छ - चर्को फ्यानहरू, गहिरो र्याकहरू, र अझै पनि सीमान्त थर्मल नियन्त्रण।
प्रत्यक्ष-देखि-चिप तरल चिसोले स्रोतमा 60-80 प्रतिशत तातो हटाउँछ। चिप्स कूलर चल्छ। फ्यानहरू ढिलो चल्छन्। कोठाको एयर कन्डिसनरले पावर सप्लाई, मेमोरी र अन्य कम्पोनेन्टहरूबाट मात्र बाँकी तापलाई ह्यान्डल गर्छ।
दक्षता लाभ पर्याप्त छ। 1.1 देखि 1.2 को PUE मानहरू प्रत्यक्ष-देखि-चिप कूलिङ रिपोर्ट संग सुविधाहरू। ट्रेडअफहरू उच्च पूँजी लागत, अधिक जटिल चुहावट व्यवस्थापन, र सुविधा-ग्रेड पानी उपचारको आवश्यकता हो।
पूर्ण इमर्सन कूलिङ — सम्पूर्ण सर्भरहरूलाई डाइइलेक्ट्रिक फ्लुइडमा डुबाउने — PUE लाई १.१ तल धकेल्छ तर विशेष रहन्छ। धेरैजसो व्यावसायिक डेटा केन्द्रहरूले पहिले डायरेक्ट-टु-चिप कुलिङ अपनाउनेछन्, विशिष्ट उच्च-घनत्व क्षेत्रहरूका लागि पछि विसर्जन।
SHANGYU डाटा सेन्टर प्लेटफर्मले हावा र तरल कूलिङ आर्किटेक्चर दुवैका लागि प्रावधानहरू समावेश गर्दछ, भविष्यमा उच्च-घनत्व डिप्लोइमेन्टहरूलाई सुविधा डिजाइनको बाबजुद तरल-आधारित थर्मल व्यवस्थापन आवश्यक पर्दछ भन्ने कुरालाई स्वीकार गर्दै।
धेरैजसो डाटा सेन्टर सञ्चालन टोलीहरू अझै पनि प्रतिक्रियात्मक रूपमा काम गर्छन्। अलार्म बज्छ। कसैले छानबिन गर्छ । एक फिक्स लागू गरिएको छ। चक्र दोहोरिन्छ।
भविष्यवाणी व्यवस्थापनमा संक्रमणको लागि तीनवटा क्षमताहरू चाहिन्छ जुन धेरै संस्थाहरूमा अभाव छ।
कन्फिगरेसन डाटा पूरा गर्नुहोस्।डाटा सेन्टरमा के छ भन्ने थाहा पाउनु — प्रत्येक सर्भर, प्रत्येक स्विच, प्रत्येक PDU, प्रत्येक कूलिङ एकाइ — आधार हो। सही CMDB डाटा बिना, क्षमता योजना अनुमान कार्य हो।
दानेदार टेलिमेट्री।र्याक-स्तर पावर मापन न्यूनतम छ। प्रति-सर्भर पावर मापन राम्रो छ। वर्कलोड-स्तर पावर एट्रिब्युसन सबैभन्दा राम्रो तर हासिल गर्न गाह्रो छ।
आवाजबाट सङ्केत छुट्याउने विश्लेषण।एक र्याक मा एक तापमान स्पाइक एक असफल प्रशंसक मतलब हुन सक्छ। आधा डाटा सेन्टर भर तापमान स्पाइक एक चिलर विफलता को अर्थ हुन सक्छ। प्रणालीले भिन्नता र तदनुसार प्रतिक्रियाहरू सिफारिस गर्न आवश्यक छ।
SHANGYU को DCIM प्लेटफर्मले SNMP र Modbus उपकरण समर्थन, वेब-आधारित र Windows अनुप्रयोग इन्टरफेसहरू, र घटना-ट्रिगर इमेजिङको लागि नेटवर्क क्यामेराहरूसँग एकीकरण प्रदान गर्दछ। उल्लेख गरिएका लक्ष्यहरू सीधा छन्: महँगो डाउनटाइम घटाउनुहोस्, पूर्ण वातावरणीय नियन्त्रण मार्फत दैनिक सञ्चालन लागतहरू घटाउनुहोस्, र व्यवस्थापन दृश्यता र ट्रेसबिलिटी सुधार गर्नुहोस्।
डाटा सेन्टरको ऊर्जा खपतले विश्वव्यापी विद्युत् मागको करिब १ प्रतिशत हिस्सा ओगटेको छ। त्यो संख्या सन्दर्भमा राख्दा सानो सुनिन्छ। यो संयुक्त अधिराज्यको कुल बिजुली खपतको लगभग बराबर छ।
सबैभन्दा महत्त्वपूर्ण कुरा, विकास दर तीव्र छ। उद्योग प्रक्षेपणहरूले AI द्वारा संचालित, क्लाउड अपनाउने, र जडान गरिएका यन्त्रहरूको निरन्तर विस्तार, 2030 मार्फत वार्षिक रूपमा 10-15 प्रतिशतमा डाटा सेन्टरको पावर माग बढेको देखाउँछ। त्यो दरमा, डाटा केन्द्रहरूले दशकको अन्त्यसम्ममा विश्वव्यापी बिजुलीको 3-4 प्रतिशत खपत गर्नेछ।
अघिल्लो दशकको लागि पावर खपत फ्ल्याट राख्ने दक्षता लाभहरू सर्भर भर्चुअलाइजेशन (भौतिक सर्भर गणना घटाउने), सुधारिएको ड्राइभ दक्षता (स्पिनिङ डिस्कबाट SSDs मा सर्ने), र नि: शुल्क कूलिङको व्यापक तैनाती (मेकानिकल प्रशीतनको सट्टा बाहिरको हावा प्रयोग गरेर) बाट आयो। ती कम झुण्डिएका फलहरू ठूलो मात्रामा छानिएका छन्।
दक्षताको अर्को लहर तरल कूलिङ, उच्च-भोल्टेज वितरण, एआई-अप्टिमाइज्ड कुलिङ नियन्त्रणहरू, र - सम्भवतः सबैभन्दा महत्त्वपूर्ण - पूर्वाधार क्षमता र वास्तविक IT लोड बीचको राम्रो पङ्क्तिबद्धताबाट आउनेछ। त्यो अन्तिम टुक्रालाई DCIM प्रणालीहरूले प्रदान गर्ने वास्तविक-समय दृश्यता र भविष्यवाणी गर्ने विश्लेषणको प्रकार चाहिन्छ तर केही सुविधाहरू पूर्ण रूपमा प्रयोग गर्छन्।
के तपाइँलाई तपाइँको वास्तविक PUE थाहा छ, विशिष्ट पानामा नम्बर होइन?यदि तपाईंले UPS आउटपुट र IT उपकरण इनपुटमा मापन गर्नुभएको छैन भने, तपाईंलाई थाहा छैन। फरक तपाईको वास्तविक ओभरहेड हो।
के तपाइँको शीतलन प्रणालीहरू आपसमा लडिरहेका छन्?धेरै डेटा केन्द्रहरूमा, CRAC एकाइहरू ओभरल्यापिङ तापक्रम र आर्द्रता ब्यान्डहरूसँग सेट गरिएका छन्। एउटा एकाइले आर्द्रीकरण गर्छ भने अर्को एकाइले आर्द्रीकरण गर्छ। एउटा चिसो हुन्छ र अर्को तताउँछ। यो असामान्य होइन। त्यो पनि प्रभावकारी छैन ।
तपाईको सर्भरको निष्क्रिय पावर ड्र के हो?उद्योग डेटाले देखाउँछ कि सामान्य उद्यम सर्भरहरूले केही नगर्दा तिनीहरूको चरम शक्तिको 30-40 प्रतिशत तान्छन्। प्रयोग नगरिएका सर्भरहरू बन्द गर्नु वा सुत्नु भनेको उपलब्ध उच्चतम-ROI दक्षता मापन हो। यो पनि सबैभन्दा बेवास्ता गरिएको छ।
के तपाइँ उपकरण विनिर्देशहरू उल्लङ्घन नगरी तपाइँको आपूर्ति हावाको तापमान दुई डिग्रीले बढाउन सक्नुहुन्छ?सम्भवतः हो। अधिकांश उपकरणहरू 25-27 डिग्री सेवन तापमानको लागि मूल्याङ्कन गरिएको छ। अधिकांश डाटा केन्द्रहरू २०-२२ डिग्रीमा चल्छन्। त्यो छ-डिग्री अन्तरले अनावश्यक शीतलन ऊर्जाको वर्षको प्रतिनिधित्व गर्दछ।
तपाईंले आफ्नो UPS दक्षतालाई अन्तिम पटक कहिले प्रमाणित गर्नुभयो?नेमप्लेट दक्षता पूर्ण पावर कारकको साथ पूर्ण लोडमा मापन गरिन्छ। वास्तविक-विश्व शक्ति कारकको साथ आंशिक लोडमा वास्तविक-विश्व दक्षता 5-10 अंक कम हुन सक्छ।