先讓我們走進恢宏壯觀而神秘的數據中心…
一排排機柜整齊排列,服務器和網絡設備層層堆疊,設備不停的運轉,無數個風扇發出嗡嗡作響聲。
突然,有機柜發出了更響亮的嗡嗡聲,這是服務器的風扇正在全速運轉。
隨后,傳來了告警聲,這是服務器沒有得到足夠的制冷而發出的求救信號。
不一會,最糟糕的事情發生了,服務器過熱保護,自動關閉運行,這或將導致大量的用戶無法訪問服務器。
與家用空調不同,機房設備更需高效、可靠的呵護。一個數據中心動輒數千臺服務器,大量的設備所消耗的電能幾乎都會變成廢熱,為了讓每臺設備保持在恒定的溫度下正常運轉,數據中心配置了如冷水機組、冷卻塔、末端空調等設備的大型的制冷系統來吸入熱空氣、排出冷空氣。
可你知道嗎?為了排放廢熱,這些制冷系統是數據中心的耗電大戶,降低數據中心的能耗(降低PUE值)一直是業界關注的焦點。
一個大型數據中心的電費占據了約70%的運營成本,全球數據中心每年電力消耗相當于8個三峽水電站的發電量。例如PUE為2的數據中心,在總能耗中,IT設備能耗占了一半,制冷系統能耗占約30%,這就是PUE居高不下的原因。
近年來,隨著移動互聯網、云計算技術的蓬勃發展,數據中心已成為現代信息生活不可或缺的ICT基礎設施。面向5G萬物互聯時代,數據流量急劇增長,數據中心必將進一步向大型化和高密化發展。
但海量數據處理產生的熱量隨之增加,為保障設備穩定運行,制冷系統能耗也將持續走高。
如何讓數據中心更節能、更高效?業界為此絞盡了腦汁…
比如,Facebook在瑞典北部,靠近北極圈的地方建數據中心,以利用自然低溫為數據中心散熱,降低能耗。
微軟在蘇格蘭奧克尼群島海岸附近建“水下數據中心”,利用寒冷的海水散熱。
Facebook和微軟將數據中心建在北極和海下,目的是通過“免費”獲取冷源的自然冷卻技術來降低能耗。
但是, Facebook和微軟采用的自然環境冷卻方式受地域限制,你不可能把所有數據中心都搬到遙遠的北極或沉到海底,未來5G時代的低時延應用更需就近部署。
所以,我們還得把目光轉回來,看看如何降低制冷系統本身的能耗。總的來講,當下制冷系統向高效化和智能化趨勢發展,方法可謂是“軟硬兼施”,以獲得更低的PUE。
大型數據中心一般采用冷凍水制冷系統。制冷系統主要由冷水機組、冷卻塔、水泵和末端空調等組成,通常冷水機組、末端及水系統組件是能耗關注的重點。
過去以來,為了提升制冷系統能效,在冷源側,從風冷向水冷、自然冷卻發展;在空調末端側,從房間級制冷發展到行級制冷、頂置制冷和機柜級制冷,以更加靠近熱源,減少冷媒輸送能耗,提升冷卻效率。
隨后,由于數據中心內設備眾多,設備發熱量動態變化,智能化的制冷系統開始應用于數據中心,使能根據變化隨時隨地的提供動態調節制冷方案,比如變頻空調、變容量壓縮機、風量智能調節技術等。
但是,由于傳統制冷系統中精密空調、水泵、冷水機組、冷卻塔來源不同廠家,各自獨立運行,少有對整個制冷系統進行系統性的效率優化。
要系統性的提升制冷效率,需要實現從冷凍站、空調末端到IT負載的端到端協同管理和精細控制來智能化降低制冷系統的功耗。
最近在HUAWEI CONNECT 2018上,華為發布了基于AI的iCooling解決方案,正是這種智能化方向的代表。
基于AI的iCooling數據中心能效優化解決方案,針對數據中心制冷效率提升瓶頸,通過機器深度學習,對大量的歷史數據進行業務分析,探索影響能耗的關鍵因素,獲取PUE的預測模型。基于PUE的預測模型,獲取與PUE敏感的特征值,利用特征值,進行業務訓練,輸出業務的預測模型。最后利用系統可調整的參數作為輸入,將PUE預測模型、業務預測模型作為約束,利用尋優算法,獲取調優參數組,下發到控制系統,實現制冷系統的控制。最終通過規范化的實踐引導和目標導向評測,不斷調整優化,獲取均衡PUE。
在華為廊坊數據中心,實測環境為1500柜,單柜密度4kW/柜,43%IT負載率,2N供電系統,N+1冷凍水系統,采用iCooling智能溫控技術后,冷凍站總能耗降低325.6kW,冷凍站COP提升8.2,全年PUE由1.42降為1.304,每年可節省電費372萬元,實現了從“制冷”向“智冷”轉變,為未來降低數據中心能耗奠定了新方向。
其實,試圖用AI優化制冷的并不只有華為,Google已宣布通過旗下DeepMind公司的AI技術來降低數據中心能耗,其原理與iCooling類似,在制冷系統中安裝數千個傳感器收集并發送數據到深度神經網絡,再作出最優決策建議。
不過,Google開發的技術目前只針對自己的數據中心,未對外,不具有普適性。而華為iCooling作為對外發布的解決方案,為各家數據中心提供了最優解決方案。
基于軟件化的AI解決方案是趨勢,同樣,在硬件效率的提升上業界也一直不遺余力。
各廠家在硬件上常選用更節能的壓縮機和風機來提升空調末端效率,并有持續的投入,使得在這兩部分上技術和性能都差異不大。但加濕系統的能耗往往容易被忽視。
通信機房要求濕度必須控制在50%±5%。以北方數據中心為例,空調系統全年耗電約有2%~3%的比例消耗在加濕系統上;如果數據中心制冷系統年耗電在1000萬kwh,那么10年生命周期將有200~300萬kwh的電費消耗在加濕系統上。
因此,數據中心除了在不間斷使用的的制冷系統上進行節能減排措施外,也需要在加濕等溫濕度及環境控制輔助耗電單元上進行優化設計,進一步降低日趨膨脹的數據中心能源消耗。
目前常用的內置式加濕有:紅外加濕、電極加濕、濕膜加濕。
濕膜加濕的大致原理是,通過循環水泵將水箱中的水送到濕膜頂部布水器,水向下滲透,均勻地濕潤濕膜表面,通過水蒸發增加空氣的濕度。整個過程不需要耗費額外功率。
與紅外加濕和電極加濕相比,濕膜加濕不必將熱量轉化為水蒸氣,在改變空氣濕度的同時還能降低溫度,可大幅降低功耗,且維護方便,無需額外水處理設備。
濕膜加濕可以多節能?讓我們來看一組統計數據。
這同樣是來自華為的數據,在目前內置式加濕中,華為采用獨有濕模式加濕技術,相比傳統的加濕方式節能95%。
以上提到了2個華為的案例,也許有點出乎你的意料,都說華為的電信設備和手機做得好,在數據中心制冷系統領域,難道華為也是佼佼者?
答案是:Yes.
華為于2008年成立網絡能源產品線,開始數據中心溫控產品研發。十年來,華為溫控產品線每年將銷售收入的15%投入研發,已在全球設立三大空調研發中心,分別位于中國西安、深圳以及德國紐倫堡,現有溫控研發工程師超過150人,提供全系列的自研數據中心溫控解決方案。
根據ICTresearch的研報, 2016年和2017年華為行級溫控在中國市場份額蟬聯第一。
不久前,中國移動2018年山西等五省新型空調末端系統集成補充采購項目結果揭曉,華為以33.32%的份額中標。
不斷研發投入和技術創新以降低數據中心能耗,是華為的堅持,也是行業一致的追求。一直以來,業界都在不懈努力使得PUE值盡可能接近1。隨著數據流量爆發,數據中心需求持續增長,提升能耗效率越來重要,相信行業將會帶來更多的驚喜。