中國移動某省分公司領導評價到,“此次采購采用了微模塊數據中心,和傳統數據中心相比運營成本降低40%左右,節約內容主要體現在電力的消耗上和機房的空間利用率上”。
傳統的數據中心往往都是采用地板下送風的制冷方式,這種制冷方式由于受到空調送風距離、地板開口率和冷熱空氣互相侵襲的影響,PUE往往都在2.5以上。PUE越高消耗的電能越多,導致數據中心的運營成本越高,嚴重的影響的IDC機房的利潤空間。
中國移動某省分公司采用浪潮微模塊數據中心,不再采用傳統的架高地板制冷模式,而是采用了行級空調近距離送風以及冷通道密封技術,將PUE由傳統數據中心的2.5以上降低到1.6以下,減少了制冷的耗能和成本。
新數據中心建設能耗——PUE不能超過1.6
依托于自身可靠的基礎設施、豐富的網絡帶寬資源和專業的技術力量,該省移動大力推進IDC建設,并且卓有成效。然而,隨著越來越多的客戶入駐該省移動IDC機房,傳統數據中心在空間、效率、能耗上的瓶頸問題日益凸顯,最突出的問題就是電力消耗越來越大。
由于早期建設的時候沒有很好地考慮用電問題,該分公司傳統數據中心的PUE(消耗的所有能源與IT負載使用的能源比)非常高,大約在2.5左右,這意味著數據中心所使用的能源約有一半消耗在 IT 負載上,另一半消耗在包括電源設備、冷卻設備和照明設施在內的網絡關鍵物理基礎設施上。按照原來200 千瓦的數據中心來算,每年的電力消耗約350萬元,而其中175萬竟全部浪費在核心負載之外。
為了提高IDC機房的電力有效利用率、提高IDC機房的利潤,該分公司要求新建設的數據中心的PUE要在1.6以下。
浪潮微模塊數據中心的出現,以其快速部署、彈性擴展、綠色節能的特性正躍入用戶眼球。和傳統的數據中心的架構不同,微模塊數據中心制冷、供電及管理系統都實現區域化、模塊化,互不干擾,可以獨立運行,無共用部分,將PUE由傳統數據中心的2.5以上降低到1.6以下。
(浪潮微模塊數據中心外部布局圖)
微模塊整體架構
為了降低PUE并節約整體擁有成本TCO,浪潮給該公司推薦使用16個IT機柜的標準微模塊,該模塊在21.6㎡(3.6m*6m)的場地內集成IT系統、配電系統、制冷系統、監控系統和冷通道結構系統,這些系統在結構上標準化設計,搭建簡便,用戶從下單之日起2個月之內就完成了模塊部署,體現了微模塊易復制、部署速度快的優勢。
(浪潮微模塊數據中心內部布局圖)
16臺標準42U服務器機柜分兩排面對面放置,微模塊內部的電源模塊、行間空調數量等可以根據IT機柜功率靈活配置數量,滿足不同功率密度的需求,目前微模塊內可支持的最大機柜功率達20KW,實現了空間的靈活利用。
微模塊內每排機柜的邊上位置放置一個配電柜,模塊內的IT機柜供電、監控供電和照明供電都從這個配電柜引出,節約了從主配電室到每個IT機柜的供電線纜,避免了資源的浪費,加之采用了近熱源水平送風、頂置空調等創新技術,讓能效比顯著提升。
該分公司傳統數據中心采用的集中式精密空調并沒有很好的把冷風送到每個角落,造成了局部的熱點,另外,由于冷熱風道沒有隔離,造成冷熱風的串擾,使得集中式精密空調把風量加大,出風口溫度低于正常溫度,會造成部分的浪費。這一點在浪潮微模塊數據中心中也得以改進,改變原有的統一送風策略,采用4臺列間水冷空調,在近熱源直接送風,這樣氣流通路較短,而且制冷更為精準,解決了局部熱點的問題。將列間的冷通道封閉隔離,冷熱氣流互不干擾,避免的氣流串擾而導致的熱島效應,避免了風量和冷量損耗,制冷效率提升12%以上。
浪潮微模塊數據中心冷通道結構系統中,活動天窗分別放置在空調的頂部以及配電柜和機柜的頂部,當發生火災的時候天窗全部打開,同時消防氣體進入模塊內部進行氣體滅火。照明系統采用紅外感應照明控制系統,當有人進入微模塊的時候,LED燈會自動打開。
單機柜高密度——充分利用立體空間
如果IDC機房在相同的空間內能夠放置更多的IT設備,那么此機房就能夠創造更多的價值,浪潮微模塊數據中心采用了封閉冷通道和列間空調技術,在降低了PUE的同時也能夠提高了單機柜的功率,傳統機房每個機柜的功率密度一般就在3KW,能夠放置的IT負載非常的有限,而浪潮微模塊數據中心每個模塊的功率密度能夠達到20KW,如果按照此功率密度設計,那么微模塊的一臺機柜相當于傳統機房的7臺機柜,即使微模塊按照主推的10KW來設計,那么也會相當于3臺傳統的IT機柜,因此,在相同面積的機房內單機柜的功率密度越高,相應的價值也越高。
“行級空調、模塊化UPS、高集成供配電系統、密閉通道的聯合應用使數據中心的PUE降至1.6以下;通過房間級制冷與行級制冷,封閉與開放通道多種方式柔性組合,以最優TCO實現高效運行。總體算下來,比傳統數據中心運營成本降低40%左右,僅僅電費這一項的支出上一年能節省上百萬,符合國家建設節約型社會的號召”,該省移動公司領導說。