數據中心面臨的長久困擾之一,就是冷卻數據中心的大量設備。多年來,通用服務器的功耗和發熱都有了顯著的降低。過去2U服務器配有3.5英寸硬盤,只能運行一個服務器實例,現在,兩個具備2.5寸硬盤的1U服務器可以運行大約30個服務器實例。
不過,邏輯服務器實例的數量卻在增加。將五年前的數據中心和現在同樣的基礎設施做對比,照理來說物理服務器的數量應該減少了,但事實并不是如此。
與此同時,電力和冷卻成本一直在上升。功耗是依然是困擾數據中心預算的來源之一。在康柏的工程實驗室工作的那段時間里,數據中心大小的實驗室每月電費達到上千美元,這還是很久以前的數字。
數據中心的電力消耗來自兩個主要來源,一是硬件(服務器、存儲和網絡),二是冷卻系統。設備越大越熱,就需要更多的電力將其冷卻,以排出熱空氣,保持適當的濕度。有許多散熱和保持合理進氣溫度的方法。水冷式機架和行級冷卻機組在服務器進氣口——最需要進行冷卻的地方,提供冷氣。
然而,這些方法并不能通用。一般情況下,需要建造精密設計的冷熱通道,雖然這一做法能降低總體的電費及散熱費,但最初實行時可能會耗費更多成本。令人驚訝的是,在規模較小的建筑里這類設計也十分有效,冷卻8個機架只需2個單元。
這些單元可以是安裝在天花板上的冰水機組,或像普通的空調那樣,使用壓力通風來排氣和進氣。一般來說,水冷式機組是比較適合長期投資的項目。建筑施工的考量和潛在的通風障礙會使空調的運行變得困難。實現的效果取決于您的機架密度和現有設備的情況,但行級制冷是數據中心必不可少的組成部分。
當然,我們還在房間的墻面及天花板上裝有大量的空調機組,通過專用管道或活動地板不間斷地排出20攝氏度的空氣,同時吸入房間內的熱氣。這是傳統的做法。然而,現今面臨的最大問題可能并不是使用哪種冷卻系統,而是數據中心應保持在何種溫度。
我們一直是在20度環境下的數據中心工作的。外面可能是38度,但您還是要穿毛衣或大衣進行服務器維護。畢竟,服務器過熱會導致運行故障的發生。而現在,數據中心可能不必保持在20度了。如果您了解一些服務器和網絡設備的建議運行溫度,就會發現這些設備應該在32至35度以下的環境運行,這遠遠高于20度。
但這么做也會存在一定的問題。如果我們在20度的環境下運行這些設備,同時冷卻系統故障導致溫度升高,那么相比在29度環境下運行,前者達到臨界水平的時間更長。在較大的房間內,大規模的冷卻故障會使整個房間在幾分鐘內就達到臨界溫度。一旦到了臨界水平,冷卻系統需要花更長時間將房間冷卻到正常的運行溫度。這種情況真是糟透了,應不惜一切代價避免。
并不是說應該調高室內溫度或忽略過熱的服務器,但事實的真相是現代服務器在26度左右的環境或進氣溫度下能更好的工作,當然,這取決于冷卻覆蓋率和冗余度。您可以先了解一下您數據中心中硬件的可運行溫度,然后再調高室內溫度,特別是在外界天氣十分惡劣的情況下。