雖然超融合基礎架構會帶來很多好處,比如精簡的IT管理方法,但從數據中心散熱的角度來看,它也同時帶來了一些特殊的挑戰。
當把超融合基礎架構的機器安裝到機柜上的時候,會在密集的冷卻環境中制造出高熱量密度。保持散熱通道的暢通無阻非常重要,但是要保證正常的溫度下給予機器足夠的散熱風,還要讓熱量盡量遠離這些機器是比較困難的。
其實對于其他IT硬件來說這個原則是一樣的,但是鑒于高度融合基礎架構(HCI)的密集性以及安裝的簡易性,你會發現要在數據中心打造一個有效率的散熱系統其實是很困難的。很多數據中心在建立之初并沒有考慮到這種高度融合的系統的散熱問題,但是只要你使用合適的技術,你還是可以讓你的數據中心盡可能地有效。
HCI的電源通常來說可以達到1000瓦(W)以上,這會產生很多熱量。一個2U高的HCI機器可能會達到25-30KW的功耗,相對來說傳統的1U服務器只會產生350-500瓦的功耗而已。即使你已經做了很多減少空氣混合的改造(例如分離熱通道和冷通道,使用空白面板和保持密閉度),可能理論上已經能夠達到冷卻的要求,但是實際上你可能還是達不到要求的溫度,
什么冷卻系統對于HCI系統來說是最好的呢?美國采暖、制冷與空調工程師學會(ASHRAE)建議的入風溫度是80.6華氏度(或27度攝氏度),這不僅僅能節省能源,還能增加空調的制冷能力。更高的進風溫度會導致空調的回風溫度也會更高。一臺典型的20噸機房空調(CRAC)運行在84 kW功率和75華氏度進風溫度的情況下會提供137kW的冷卻能力以及90華氏度的回風。這里的差異還是蠻大的,但是這并不能保證這些冷卻的能力最終都能利用到計算機設備上去。
有效的數據中心冷卻系統要考慮性能以及風道。如果環境中空氣不夠的話,服務器風扇會嘗試從其他地方吸收空氣——這包括了機柜的頂部、機柜設備之間沒有固定的空間、臨近的機柜或者機柜與地板的空隙。這會帶來兩個問題,第一個問題是服務器風扇會加速并且消耗額外的能源。
這樣的結果是,被服務器風扇抽取的空氣的地方會比空調處的空氣熱很多。 如果你的入風溫度已經非常高了,那么這些昂貴的設備會比他們預想的更熱,從輕的層面上講,這會帶來一些數據錯誤。這還會減少這些設備的壽命,并且也會一定程度損壞這些設備。
對于HCI我需要多少空氣呢?
有了以下這個公式,你就能快速決定你的數據中心內的空氣數量是否滿足你設備的需求了。
CFM = BTU/1.08 x TD
CFM是每立方尺每分鐘的空氣流量
BTU是每小時英熱量單位的熱負荷
(BTU = Watts x 3.414)
1.08是在正常情況下的空氣校正常數
TD是溫差,或者叫做Delta溫度或ΔT
進風的溫度和出風的溫度差異大概在25華氏度左右。
做一個快速的計算,假設電源是在幾乎滿負載的情況下運作的,那么1600瓦單元等效于5460 BTU。假設溫差是25華氏度,那么設備需要202 CFM的空氣才不會出現問題。
如果你在一個機柜內裝滿了HCI系統,那么你需要4000 CFM的空氣。如果你的空調是普通的20噸機房空調的話,那么它能提供12000 CFM,那么結果是你只能冷卻3個機柜的設備。即使你假設服務器的利用率平均有75%,那么每個機柜你還是需要3000 CFM的空氣。
如果我無法提供那么多空氣怎么辦?以下的公式可以幫你解決溫差的問題:
TD = BTU / 1.08 x CFM
4個利用率75%的機柜會需要12000 CFM,但是如果附近的機柜需要額外的6000W功率的話,那么你就需要等效的6個HCI機柜的功耗,即至少18000 CFM。你的機房空調可能只能提供12000 CFM。假設你的服務器群是在全速運行的,但是又不能從其他地方抽取更多的空氣,那么你的溫差會變成53華氏度。這個時候計算設備很可能無法忍受這個溫度,從而會導致機器被關閉,或者失效。
其他空氣氣流限制
如果我們有很多機房空調,那么它們可以將空氣直接排放到每一列機柜中去。如果你使用的是地板下的空調,格子型的瓷磚也只能提供56%的開放空間,根據不同的地下壓力它可以提供900-1600 CFM,或者5-9 kW的制冷功率。如果你安裝了過多的這些瓷磚或者風扇助力的瓷磚,會導致地下的空氣壓力變小,從而會抽取其他排機柜的空氣。風道的大小限制了空氣在空中的傳遞——也就是說即使你有足夠的空調來傳遞足夠的空氣,但是傳遞的過程中也會受到一定的限制,從而有一些空氣無法到達計算機硬件。
當每一個機柜達到7500 W~10000 W的功率的時候,你可能需要額外的數據中心冷卻系統。有很多冷卻系統是專門用來對付高密集型計算數據中心的。其中包括地面的和架空冷卻器,后門熱交換器,甚至液體冷卻系統。在未來我們可能會看到越來越多高性能系統設計成支持直接水冷。