一、問題的提出
中國現(xiàn)有數(shù)據(jù)中心達55萬個,大部分耗電嚴重,急需改造。
中國云產(chǎn)業(yè)發(fā)展國家規(guī)劃指出,三年后“云計算”年產(chǎn)值規(guī)模將達到2000億元,其中IaaS市場規(guī)模占150億元。云基礎設施大規(guī)模建設主要劃分為:大型SaaS系統(tǒng)支撐;民營公有云數(shù)據(jù)機房;高校計算與數(shù)據(jù)中心;政府機關政務云建設;物聯(lián)網(wǎng)應用的數(shù)據(jù)存儲(感知與監(jiān)控)。
數(shù)據(jù)中心機房多年來一直處于使用機房專用精密空調(diào)做為主要制冷設備。隨著計算機設備的更新?lián)Q代,IT設備的功率密度越來越高,機房面積越來越大,機房的數(shù)量越來越多,世界能源越來越緊張。在全球能源問題日趨突出的情況下,雖然機房空調(diào)制冷能效比有所提高,但所耗費的電能仍然太高,一直困擾著機房運營商和用戶。
二、解決問題的途徑
如何運用新的技術降低機房制冷所消耗的電能,建設綠色環(huán)保機房,已成為機房行業(yè)建設者們關注的核心問題。
國內(nèi)傳統(tǒng)數(shù)據(jù)中心PUE多半在2.0以上,一半以上的電能被空調(diào)占用。
擁有一千臺服務器的數(shù)據(jù)中心,年總耗電超出1000萬度,而空調(diào)就占用500萬度。
按目前機房各參數(shù)較低標準估算:
服務器耗電(取低值,600w~1500w/臺)、工業(yè)用電≈1元/度
服務器年耗電量(度)=服務器數(shù)×600W×24小時×365天÷1000
經(jīng)過機房模塊化建設機房,一至兩年節(jié)省電費可新建一個機房。
工業(yè)和信息化部以文件的形式“十二五”重點任務?統(tǒng)籌部署綠色數(shù)據(jù)中心建設。
落實《工業(yè)和信息化部發(fā)展改革委國土資源部電監(jiān)會能源局關于數(shù)據(jù)中心建設布局的指導意見》(工信部聯(lián)通〔2013〕13號),促進數(shù)據(jù)中心選址統(tǒng)籌考慮資源和環(huán)境因素,積極穩(wěn)妥引入虛擬化、海量數(shù)據(jù)存儲等云計算新技術,推進資源集約利用,提升節(jié)能減排水平;
出臺適應新一代綠色數(shù)據(jù)中心要求的相關標準,優(yōu)化機房的冷熱氣流布局,采用精確送風、熱源快速冷卻等措施,從機房建設、主設備選型等方面降低運營成本,確保新建大型數(shù)據(jù)中心的PUE值達到1.5以下,力爭使改造后數(shù)據(jù)中心的PUE值下降到2以下。
確保新建數(shù)據(jù)中心的PUE值在1.2~1.4之間,改造數(shù)據(jù)中心的PUE值在1.9以下(一般會在原數(shù)據(jù)中心PUE值基礎上遞減30%)。
三、具體解決辦法
數(shù)據(jù)中心風冷卻的常態(tài)節(jié)能措施主要采取降低機房散熱所消耗的電能,提高數(shù)據(jù)中心機房的電源使用效率,從而降低IDC的PUE值。
目前主要有7種常態(tài)節(jié)能措施:
(1)在數(shù)據(jù)中心機房中建設冷通道,并配置下送風機房專用風冷式精密空調(diào)。
(2)在數(shù)據(jù)中心機房中建設熱通道,并配置下送風機房專用風冷式精密空調(diào)。
(3)在數(shù)據(jù)中心機房中建設專用風冷式精密空調(diào)冷風和熱風管道,對機柜進行全密封強制散熱。
(4)在數(shù)據(jù)中心機房中使用下送風機房專用風冷式精密空調(diào)和智能送風機柜,將機房冷風凈壓倉的冷風直接送入機柜。
(5)在數(shù)據(jù)中心機房采用大型水冷式機房精密空調(diào)。
(6)在數(shù)據(jù)中心機房建設專用大型水冷式機房精密空調(diào)和芯片冷卻管道,直接給IT設備芯片散熱。
(7)在數(shù)據(jù)中心機房采用機房風冷式精密空調(diào)+大型新風機1:1配置。
從以上任一種類IDC常態(tài)節(jié)能措施分析來看,都并非最佳方案。具體分析如下:
從冷源方面說,第1、2、3、4種均都是采用機房專用風冷式精密空調(diào)作為冷源,第5、6種采用水冷式精密空調(diào),第7種采用風冷式精密空調(diào)或自然冷風和水模。
使用風冷式精密空調(diào)在節(jié)約電能上主要依靠空調(diào)的制冷能效比,能效比在3-4之間,節(jié)能方面有限;使用水冷式精密空調(diào),能效比最大能達到6,一般在4以上;使用自然風的新風節(jié)系統(tǒng)時,最大能效比可達12。
機房設備制冷效果第1、2、5、7種都采用冷風源被動平均分布散熱,要求整個機房的發(fā)熱量布局要非常均衡,否則可能出現(xiàn)機房冷熱不均,單相機柜局部過熱的問題。
第3種采用主動大風量強制散熱,每個機柜熱出風管道都配有風機,散熱效果好,容易出現(xiàn)過度制冷,風機也需要消耗一定的電能。
第4種采用主要設備機柜進風口配置變速風機,動態(tài)給機柜提供冷風,較好解決局部單個機柜過熱和機柜內(nèi)熱負荷突然增大的問題,將機房內(nèi)溫度提高到空調(diào)的回風溫度,但機柜的深度比普通機柜深度要大100㎡,風機需要消耗電能。
第6種采用精準散熱,主芯片散熱效果好,但電源、硬盤等部件需精準散熱不容易實施,需要服務器產(chǎn)商支持。
機房設備散熱建設難易成度第1、2、4、7種比較接近,比傳統(tǒng)下送風空調(diào)系統(tǒng)略微復雜一點,容易實施,成本相差也不大。
第3種,需要對機柜前后門進行密封,實施困難,風管建設比較多,對機房的整體布局有影響,需要非常細致的規(guī)劃和設計,成本相對要高一些。
第5種,水冷空調(diào)的建設門檻較高,比較適用于大型的機房,空調(diào)設備比風冷式精密空調(diào)要復雜,成本相對要高一些,運行也需要專業(yè)維護人員。
第6種,空調(diào)部份和第5種一樣,但是分支制冷管道方面,會相對復雜很多,要非常了解服務器產(chǎn)商等設備的結構,甚至于需要它們的支持,成本方面相對會高出一部份。
四、結束語
成功設計并建造了低能耗、耐高溫、高密集度服務器集群,高承重機架,數(shù)據(jù)中心外氣導入系統(tǒng)和內(nèi)部氣體環(huán)流控溫系統(tǒng);實現(xiàn)了以自然冷源替代傳統(tǒng)空調(diào)設備維持數(shù)據(jù)機房溫濕度,在保證數(shù)據(jù)中心連續(xù)、可靠運行的同時,數(shù)據(jù)中心的能耗自然就會顯著降低。
關鍵是采用上述技術,在IT設備利用率大幅提高和采用新溫控技術的情況下,如何能夠使數(shù)據(jù)中心耗能較傳統(tǒng)數(shù)據(jù)機房整體節(jié)省60%左右,使節(jié)能減排效果一步到位,這些仍然需要我們不斷采用國際前沿技術和設計理念,而最終通過規(guī)范數(shù)據(jù)中心內(nèi)部氣流組織,提高冷量利用率;通過模塊化建造方式,實現(xiàn)數(shù)據(jù)中心規(guī)模彈性擴展,減小數(shù)據(jù)中心初始投資;通過即插即用的機房模塊產(chǎn)品,縮短建設周期,提高工程質(zhì)量;并且最終解決數(shù)據(jù)中心的運行電力消耗大、數(shù)據(jù)中心建設周期長、工程質(zhì)量難以保證等制約國內(nèi)“云計算”與“大數(shù)據(jù)”產(chǎn)業(yè)發(fā)展的重要問題。