Məlumat Mərkəzləri Gözləniləndən Daha Çox Güc Yeyir. Sənaye yetişmək üçün yarışır.

2026-04-29 - Mənə bir mesaj buraxın

İllərdir hekayəsiməlumat mərkəzienerji istehlakı proqnozlaşdırıla bilən bir qövs izlədi. Rəqəmsallaşma getdikcə artırdı, lakin daha yaxşı serverlər, virtuallaşdırma və bulud konsolidasiyası nəticəsində əldə edilən səmərəlilik ümumi elektrik istifadəsini təəccüblü dərəcədə sabit saxladı. Qlobal məlumat mərkəzinin enerji tələbatı on ilin ən yaxşı hissəsi üçün ümumi elektrik istehlakının təxminən 1 faizini - ildə təxminən 200 terawatt-saat təşkil etdi.

O dövr başa çatır.

Generativ süni intellekt, kriptovalyuta mədənçiliyi, kənar hesablamalar və əlaqəli cihazların eksponensial artımının yaxınlaşması köhnə səmərəlilik əyrisini qırdı. Sənaye təxminləri indi məlumat mərkəzinin enerji tələbatının 2000-ci illərin əvvəlindən bəri görünməmiş illik nisbətlərdə artdığını göstərir. Bəzi bölgələrdə - İrlandiya, Şimali Virciniya, Sinqapur - məlumat mərkəzləri artıq ümumi elektrik istehlakının 15-25 faizini təşkil edir və tənzimləyiciləri yeni tikintilərə moratoriumlar qoymağa məcbur edir.

Bu fonda bir vaxtlar texniki detallar kimi görünən infrastruktur seçimləri - soyutma arxitekturası, enerji paylama topologiyası, rack sıxlığının planlaşdırılması - iclas otağı qərarlarına çevrildi. Enerji xərcləri artıq sıra elementi deyil. Bu, böyüməyə bir məhdudiyyətdir.


Hər şeyi dəyişdirən sadə metrik

Enerji İstifadə Effektivliyi və ya PUE, təxminən iyirmi ildir ki, məlumat mərkəzi sənayesinin standart səmərəlilik metrikası olmuşdur. Bu sadə nisbətdir: ümumi qurğunun gücü İT avadanlığının gücünə bölünür.

2.0 PUE o deməkdir ki, serverləri və yaddaşı gücləndirən hər vatt üçün başqa bir vat soyutma, işıqlandırma, enerji çevrilməsi itkiləri və digər yüklərə gedir. 1,2-lik bir PUE o deməkdir ki, hər bir İT vat üçün yalnız 0,2 vatt enerji istehlak edir.

Sənaye PUE-yə əsaslanan səviyyələri geniş qəbul etdi:

Səviyyə PUE DCiE Nə deməkdir
Platin <1,25 >0,80 Dünya səviyyəli səmərəlilik, adətən pulsuz soyutma və ya maye soyutma tələb edir
Qızıl 1,25 – 1,43 0,70 – 0,80 Çox səmərəli, mülayim iqlimlərdə müasir dizaynlarla əldə edilə bilər
Gümüş 1,43 – 1,67 0,60 – 0,70 Köhnə obyektlər və ya daha isti iqlimlər üçün məqbuldur
Bürünc 1.67 - 2.00 0,50 – 0,60 Əsas təkmilləşdirmələri olmayan köhnə məlumat mərkəzləri üçün tipikdir
Ədalətli 2.00 - 2.50 0,40 – 0,50 Zəif səmərəlilik, yüksək əməliyyat xərcləri
Yazıq >2,50 <0,40 Kritik səmərəsizlik, ehtimal ki, dərhal diqqət tələb edir

Problem ondadır ki, bir çox təşkilat əslində öz PUE-ni bilmir. Onlar təxmin edirlər. Onlar təxmin edirlər. Və ya yalnız əsas kommunal sayğacda ölçürlər və qalanını öz üzərinə götürürlər.

2023-cü il sənaye sorğusu göstərdi ki, məlumat mərkəzi operatorlarının təxminən 40 faizi heç vaxt PUE-ni rack səviyyəsində ölçməyib. Bunu edənlər arasında, hesabat və faktiki PUE arasındakı fərq orta hesabla 0,3 bal təşkil etdi - heç kimin fərqinə varmadan bir obyekti Qızıldan Gümüşə köçürmək üçün kifayətdir.

Güc əslində hara gedir

PUE-nin niyə bu qədər geniş şəkildə dəyişdiyini başa düşmək, gücün bir məlumat mərkəzindən ayrıldığı yerə baxmaqla başlayır.

Təxminən 1,8 PUE olan tipik hava ilə soyudulmuş bir qurğuda qəza təxminən belə görünür:

  • İT avadanlıqları (serverlər, saxlama, şəbəkə): 55-60 faiz
  • Soyutma (CRAC/CRAH qurğuları, soyuducular, nasoslar, quru soyuducular): 30-35 faiz
  • Gücün paylanması (UPS, transformatorlar, PDU itkiləri): 5-8 faiz
  • İşıqlandırma və digər obyekt yükləri: 2-4 faiz

Soyutma yükü ən böyük dəyişəndir. Sərbəst soyutma üçün xarici havadan istifadə edən mülayim bir iqlimdə olan bir obyekt, İT olmayan gücünün yalnız 15 faizini soyutmaya sərf edə bilər. Mexanik soyutma ilə tropik iqlimdə eyni obyekt il boyu 40 faiz xərcləyə bilər.

Buna görə də kolocation provayderləri PUE-ni obyekt səviyyəsində reklam edir, lakin PUE-ni müştəri sayğacına çatdırır – fərqli nömrələr, fərqli nəticələr. Müştəri bunların hamısını ödəyir.

Ənənəvidən bulud miqyaslı infrastruktura keçid

Ənənəvi məlumat mərkəzi idarəetməsi nisbətən statik bir mühit qəbul etdi. Raflar aylar və ya illər ərzində dolduruldu. Soyutma yavaş-yavaş tənzimlənə bilər. İlk gündən güc paylanması böyük ölçüdə idi.

Bulud dövrü fərziyyələri dəyişdi. Raflar indi günlərlə dolur. İş yükləri avtomatik olaraq serverlər arasında dəyişir. Yüksək sıxlıqlı AI klasterləri bitişik ümumi təyinatlı hesablama rəflərindən üç dəfə çox güc çəkə bilər.

Bu dəyişikliklər infrastrukturun idarə edilməsini yenidən düşünməyə məcbur etdi. Üç tendensiya önə çıxır.

Birincisi, sıxlıq qeyri-bərabər artır.On il əvvəl standart bir server rafı 5-8 kilovat çəkdi. Bu gün ümumi təyinatlı raflar 10-15 kilovat çəkir. Yüksək performanslı hesablama və süni intellekt təlimi rafları müntəzəm olaraq hər rack üçün 30 kilovattı keçir. Bəziləri 50 kilovatdan artıqdır.

Bu, hava soyutmasının həll etməkdə çətinlik çəkdiyi istilik idarəetmə problemləri yaradır. Raf başına 20 kilovatda, havanın soyudulması düzgün saxlama ilə effektiv olaraq qalır. 30 kilovatda marjinal olur. 40 kilovat və yuxarıda maye soyutma isteğe bağlıdan zəruriyə keçir.

İkincisi, potensialın planlaşdırılması proqnozlaşdırıcı oldu.Köhnə üsul - lazım olduğundan daha çox tutum alın və boş otursun - artıq miqyasda işləmir. Boş tutumun həm əsas dəyəri, həm də davamlı texniki xidmət xərcləri var.

Müasir infrastruktur idarəetmə sistemləri enerji, soyutma və ya raf sahəsinin nə vaxt bitəcəyini proqnozlaşdırmaq üçün tarixi məlumatlardan və iş yükünün proqnozlaşdırılmasından istifadə edir. Ən yaxşı sistemlər məhdudiyyətin kritik olmasından günlər və ya həftələr əvvəl mövcud gücü yenidən konfiqurasiya etməyi və ya yeni avadanlıq sifariş etməyi tövsiyə edə bilər.

Üçüncüsü, görünürlük tələbləri keçmişdirpanded.Ənənəvi məlumat mərkəzi PDU səviyyəsində gücü izləyə bilər. Müasir qurğunun rack səviyyəsində, bəzən server səviyyəsində və getdikcə daha çox iş yükü səviyyəsində görmə qabiliyyətinə ehtiyacı var - hansı virtual maşının və ya konteynerin hansı enerjini çəkdiyini bilmək.

DCIM təbəqəsi: əslində nə edir

Məlumat Mərkəzi İnfrastrukturİdarəetmə (DCIM) proqramı on ildən artıqdır ki, mövcuddur, lakin qəbulu qeyri-bərabər olaraq qalır. Müəssisə məlumat mərkəzlərinin yarısından azı tam DCIM sistemini yerləşdirib. Çoxları öz imkanlarının yalnız bir hissəsini istifadə edirdi.

Düzgün tətbiq edilmiş DCIM sistemi dörd işi görür:

Aktivlərin idarə edilməsi.Hər bir server, keçid, PDU və soyutma qurğusu konfiqurasiya idarəetmə verilənlər bazasında (CMDB) izlənilir. Məkan, güc reytinqi, şəbəkə əlaqələri, texniki xidmət tarixçəsi - bunların hamısı. Bu sadə səslənir, lakin bir çox təşkilat hələ də yeniləmələr arasında aylarla davam edən elektron cədvəllərdə aktivləri izləyir.

Real vaxt rejimində monitorinq.PDU və ya raf səviyyəsində enerji istehlakı, tədarük və qaytarma nöqtələrində temperatur və rütubət, soyutma sisteminin vəziyyəti, UPS batareyasının sağlamlığı. Parametrlər təyin olunmuş nöqtələrdən kənara çıxdıqda həyəcan siqnalları işə salınır. Məqsəd problemləri dayandırmadan əvvəl aşkar etməkdir.

Bacarıqların planlaşdırılması.Sistem nə qədər güc və soyutma tutumunun mövcud olduğunu, nə qədər istifadə edildiyini və gələcək yerləşdirmə üçün nə qədərinin saxlandığını bilir. O, yeni yüksək sıxlıqlı rack əlavə etməyin və ya köhnə serverlər dəstini ləğv etməyin təsirini modelləşdirə bilər.

Vizuallaşdırma.Məlumat mərkəzinin rəqəmsal əkizləri – rəf-rəf, kafel-çini – cari şərtləri göstərir və operatorlara dəyişiklikləri simulyasiya etməyə imkan verir. Üçüncü sıra, dördüncü sütuna 10 kilovat yük əlavə etmək: bu, soyutma qabiliyyətini aşırmı? Hər kəs avadanlığı köçürməzdən əvvəl sistem cavab verir.

Əslində İşləyən Effektivlik Riyaziyyatı

Məlumat mərkəzinin enerji istehlakını azaltmaq sirli deyil. Metodlar yaxşı başa düşülür. Çətinlik icra intizamıdır.

Təchizat havasının temperaturunu artırın.Əksər məlumat mərkəzləri soyuq işləyir - soyutma qurğusunun geri qayıtmasında 18 ilə 20 dərəcə Selsi - çünki operatorlar həmişə bunu edirdilər. ASHRAE təlimatları indi 24-27 dərəcə tövsiyə edir. Hər dərəcə artımı soyutma enerjisini təxminən 4 faiz azaldır. 20 dərəcə əvəzinə 26 dərəcə ilə işləmək soyutma gücünə 20-25 faiz qənaət edir.

İsti və soyuq havanın qarışmasını aradan qaldırın.İsti keçid, soyuq keçid və ya şaquli egzoz kanalları soyuducu havanı rəflərin ön hissəsindən qısa dövrə keçmək əvəzinə lazım olan yerə getməyə məcbur edir. Yalnız saxlama adətən soyutma enerjisini 15-25 faiz azaldır.

Dəyişən sürətli sürücülərdən istifadə edin.Sabit sürətli ventilyatorlar və nasoslar qismən yüklə enerji sərf edirlər. Dəyişən sürətli sürücülər hava axını və su axını faktiki tələbata uyğunlaşdırır. Təkmilləşdirmənin geri qaytarılma müddəti adətən 1-3 ildir.

UPS işini optimallaşdırın.Əksər UPS sistemləri davamlı olaraq ikiqat konvertasiya rejimində işləyir - kommunal enerji təmiz olduqda belə AC-ni DC-yə və yenidən AC-yə çevirir. Müasir UPS sistemləri enerji keyfiyyətinin imkan verdiyi zaman eko-rejimə keçə bilər və 94-96 faiz əvəzinə 99 faiz səmərəliliyə nail olur. Mübadilə, elektrik enerjisi kəsildiyi təqdirdə batareyaya qısa ötürmə vaxtıdır. Bu cür köçürmələr üçün nəzərdə tutulmuş enerji təchizatı ilə İT yükləri üçün risk minimaldır.

Daha yüksək gərginlikli paylamanı qəbul edin.Gücün 208V əvəzinə 415V-də paylanması paylama itkilərini təxminən 25 faiz azaldır. Bunun üçün uyğun PDU-lar və server enerji təchizatı tələb olunur, lakin bir çox müasir qurğular bunu dəstəkləyir.

Real Dünya Səmərəliliyi Nə kimi görünür

Shangyu CPSY şirkəti, məlumat mərkəzi infrastrukturuna diqqət yetirən yüksək texnologiyalı müəssisə, modul məlumat mərkəzi həlləri üçün 1.3 PUE hesabat verir. Bu, şirkəti Platinə doğru irəliləyərək Qızıl pillədə yerləşdirir.

Ənənəvi dizaynlarla müqayisədə iddia edilən 25 faiz enerji qənaəti bir çox amillərdən qaynaqlanır. Sistem səviyyəsində 97,4 faiz səmərəliliyi olan modul UPS sistemləri, əks halda 15-20 faiz işləyən paylama itkilərini azaldır. Dəyişən sürətli kompressorlar və EC fanatları olan dəqiq kondisionerlər soyutma çıxışını sabit gücdə işləmək əvəzinə faktiki istilik yükünə uyğunlaşdırmaq üçün tənzimləyir. Fiziki tərtibat - isti keçidin saxlanması, optimal rəf aralığı, düzgün ölçülü perforasiya edilmiş plitələrlə qaldırılmış döşəmə - bir çox başqa səmərəli obyektləri pozan hava axınının idarə edilməsinə müraciət edir.

Şirkətin sertifikatlaşdırma portfelinə ISO 9001 (keyfiyyət menecmenti) və ISO 27001 (informasiya təhlükəsizliyinin idarə edilməsi) daxildir. Onun müştəri yerləşdirmələrinə ABŞ, Böyük Britaniya, Almaniya, Fransa və Avstraliyada ixrac qurğuları ilə Huawei, ZTE və Inspur ilə tərəfdaşlıq daxildir.

Şəkilə Maye Soyutmanın daxil olduğu yer

İllər boyu maye soyutma super hesablama mərkəzləri üçün niş texnologiya idi. Bu, sürətlə dəyişir.

NVIDIA H100 və ya gələcək B200 GPU-larından istifadə edən süni intellekt təlim qrupları sırf hava ilə soyudulmuş konfiqurasiyalarda rack başına 30-50 kilovat enerji yaradır. Bu sıxlıqlarda havanın soyudulması yüksək hava axını sürətini tələb edir - yüksək səsli fanatlar, dərin raflar və hələ də marjinal istilik nəzarəti.

Birbaşa çipə maye soyutma mənbədəki istiliyin 60-80 faizini çıxarır. Çiplər daha soyuq işləyir. Azarkeşlər daha yavaş işləyirlər. Otaq kondisioneri yalnız enerji təchizatı, yaddaş və digər komponentlərdən qalan istiliyi idarə edir.

Səmərəlilik qazancı əhəmiyyətlidir. Birbaşa çipdən soyuducuya malik qurğular 1.1-1.2 PUE qiymətlərini bildirir. Mübadilələr daha yüksək kapital dəyəri, daha mürəkkəb sızma idarəsi və obyekt səviyyəli suyun təmizlənməsi ehtiyacıdır.

Tam daldırma soyutma - bütün serverləri dielektrik mayeyə batırmaq - PUE-ni 1.1-dən aşağı itələyir, lakin ixtisaslaşdırılmış olaraq qalır. Əksər kommersiya məlumat mərkəzləri əvvəlcə birbaşa çipə soyutma, daha sonra xüsusi yüksək sıxlıq zonaları üçün immersion qəbul edəcək.

SHANGYU məlumat mərkəzi platforması həm hava, həm də maye soyutma arxitekturaları üçün müddəaları ehtiva edir və gələcəkdə yüksək sıxlıqlı yerləşdirmələrin obyektin dizaynından asılı olmayaraq maye əsaslı istilik idarəetməsini tələb edəcəyini qəbul edir.

İdarəetmə boşluğu: Reaktivdən proqnozlaşdırıcıya

Məlumat mərkəzi əməliyyat qruplarının əksəriyyəti hələ də reaktiv işləyir. Siqnal səslənir. Kimsə araşdırır. Düzəltmə tətbiq olunur. Dövr təkrarlanır.

Proqnozlaşdırılmış idarəetməyə keçid bir çox təşkilatda çatışmayan üç qabiliyyət tələb edir.

Konfiqurasiya məlumatlarını tamamlayın.Məlumat mərkəzində nə olduğunu bilmək - hər server, hər keçid, hər PDU, hər soyutma qurğusu - təməldir. Dəqiq CMDB məlumatları olmadan, potensialın planlaşdırılması ehtimaldır.

Qranul telemetriya.Raf səviyyəsində gücün ölçülməsi minimumdur. Server başına güc ölçülməsi daha yaxşıdır. İş yükü səviyyəsində güc aidiyyatı ən yaxşı, lakin əldə etmək ən çətindir.

Siqnalı səs-küydən fərqləndirən analitika.Bir rəfdə temperaturun artması uğursuz bir fan ola bilər. Məlumat mərkəzinin yarısında temperaturun artması soyuducunun nasazlığı anlamına gələ bilər. Sistem cavabları müvafiq olaraq fərqləndirməli və tövsiyə etməlidir.

SHANGYU-dan olan DCIM platforması SNMP və Modbus cihaz dəstəyini, veb-əsaslı və Windows proqram interfeyslərini və hadisə ilə bağlı görüntüləmə üçün şəbəkə kameraları ilə inteqrasiyanı təmin edir. Göstərilən məqsədlər sadədir: baha başa gələn fasilələri azaltmaq, ətraf mühitə tam nəzarət vasitəsilə gündəlik əməliyyat xərclərini azaltmaq və idarəetmənin görünməsini və izlənilməsini yaxşılaşdırmaq.

Nəyə görə bu, Data Center mərtəbəsindən kənarda vacibdir

Məlumat mərkəzinin enerji istehlakı qlobal elektrik tələbatının təxminən 1 faizini təşkil edir. Bu rəqəm kontekstdə qoyulana qədər kiçik səslənir. Bu, Böyük Britaniyanın ümumi elektrik istehlakına təxminən bərabərdir.

Ən əsası isə artım tempi sürətlənməkdədir. Sənaye proqnozları 2030-cu ilə qədər məlumat mərkəzinin enerji tələbinin hər il 10-15 faiz artacağını göstərir ki, bu da süni intellekt, bulud qəbulu və qoşulmuş cihazların davamlı genişlənməsi ilə bağlıdır. Bu templə məlumat mərkəzləri onilliyin sonuna qədər qlobal elektrik enerjisinin 3-4 faizini istehlak edəcək.

Əvvəlki onillikdə enerji istehlakını sabit saxlayan səmərəlilik qazanmaları serverin virtuallaşdırılmasından (fiziki server sayının azaldılması), təkmilləşdirilmiş sürücü səmərəliliyindən (fırlanan disklərdən SSD-lərə keçid) və pulsuz soyutmanın geniş tətbiqindən (mexaniki soyuducu əvəzinə kənar havadan istifadə) əldə edilmişdir. Bu aşağı asılmış meyvələr əsasən yığılmışdır.

Səmərəliliyin növbəti dalğası maye soyutma, yüksək gərginlikli paylama, süni intellektlə optimallaşdırılmış soyutma idarəetmələri və bəlkə də ən vacibi infrastruktur tutumu ilə faktiki İT yükü arasında daha yaxşı uyğunlaşmadan gələcək. Bu sonuncu hissə DCIM sistemlərinin təmin etdiyi, lakin bir neçə obyektin tam istifadə etdiyi real vaxtda görünmə və proqnozlaşdırıcı analitika tələb edir.

Öz infrastrukturunuz haqqında soruşmağa dəyər bəzi suallar

Siz spesifikasiya vərəqindəki nömrəni deyil, həqiqi PUE-nizi bilirsinizmi?UPS çıxışında və İT avadanlığının girişində ölçməmisinizsə, bilmirsiniz. Fərq sizin əsl yükünüzdür.

Soyutma sistemləriniz bir-biri ilə mübarizə aparır?Bir çox məlumat mərkəzlərində CRAC vahidləri üst-üstə düşən temperatur və rütubət zolaqları ilə qurulur. Bir vahid nəmləndirir, digəri isə nəmləndirir. Biri soyuyur, digəri yenidən qızdırır. Bu qeyri-adi deyil. Həm də səmərəli deyil.

Serverlərinizin boş enerjisi nə qədərdir?Sənaye məlumatları göstərir ki, tipik korporativ serverlər heç bir şey etmədikdə maksimum güclərinin 30-40 faizini çəkirlər. İstifadə edilməmiş serverlərin bağlanması və ya yuxu rejiminə salınması mövcud ən yüksək ROI səmərəliliyi ölçüsüdür. Həm də ən çox diqqətdən kənarda qalandır.

Avadanlıq xüsusiyyətlərini pozmadan tədarük havasının temperaturunu iki dərəcə qaldıra bilərsinizmi?Çox güman ki, bəli. Əksər avadanlıq 25-27 dərəcə suqəbuledici temperatur üçün qiymətləndirilir. Əksər məlumat mərkəzləri 20-22 dərəcədə işləyir. Bu altı dərəcə boşluq illərlə lazımsız soyutma enerjisini təmsil edir.

UPS səmərəliliyini sonuncu dəfə nə vaxt təsdiqləmisiniz?Lövhənin səmərəliliyi mükəmməl güc faktoru ilə tam yükdə ölçülür. Real enerji faktoru ilə qismən yükdə real dünya səmərəliliyi 5-10 bal aşağı ola bilər.





Əvvəlki:Xəbər yoxdur

Sorğu göndərin

X
Biz sizə daha yaxşı baxış təcrübəsi təklif etmək, sayt trafikini təhlil etmək və məzmunu fərdiləşdirmək üçün kukilərdən istifadə edirik. Bu saytdan istifadə etməklə siz kukilərdən istifadəmizlə razılaşırsınız. Məxfilik Siyasəti