摘要:北京,丹佛,法蘭克福,香港,杰克遜維爾,明尼阿波利斯,鳳凰城和圣荷西都可以在不使用任何制冷機械冷卻的情況下,可以為A2類服務器(典型商用服務器今天)制冷。
表3顯示了在不同類別的服務器的允許溫度最大閾值下自然冷卻的潛在機會。 使用自然冷卻的時間基于指定城市的干球溫度,間接蒸發冷卻時間是基于這些城市的濕球溫度。
兩個示例場景的另一個主要區別是,節能裝置可以使外部空氣進入數據中心,而根據定義,間接蒸發冷卻通過熱交換器進行熱傳遞,從而使外部空氣與數據中心內部的空氣分離。 在兩種免費冷卻方式之間,圖表3清楚地表明,位于芝加哥,波士頓的阿爾伯克基,
北京,丹佛,法蘭克福,香港,杰克遜維爾,明尼阿波利斯,鳳凰城和圣荷西都可以在不使用任何制冷機械冷卻的情況下,可以為A2類服務器(典型商用服務器今天)制冷。
此外,奧斯汀,夏洛特,迪拜,拉斯維加斯和悉尼都全年都可以采用另一種免費冷卻的形式來冷卻A3類服務器。 這顯然只是分析的第一步,ASHRAE推薦的最高溫度和允許溫度之間的時間越少,“X”因子可靠性預測越有可能證明允許溫度波動。 那是什么意思呢?
通過這種分析建議的一條路徑是完全沒有任何冷卻器或其他制冷劑的冷卻系統的數據中心設計。 這樣的設計不僅節省了冷卻系統成本,這是除IT設備供電所需的能源外,數據中心的最大一筆開銷,一旦無需冷卻設備,也為數據中心內節約一次性投入成、以及放置的空間。
另一方面,預算分析可能表明, A3類服務需要經過3-6次的技術更新,才能滿足使用需求,這筆投資可能比建設冷卻系統以及相關聯的系統投入還要高。
在這種情況下,投資回報率將是一年中有使用80%或90%的時間使用免費冷卻,或任何BIN數據表明可以達到預期。即使在這種情況下,降低投入需要通過免費冷卻設施,以及通過備用冷卻裝置冷卻的時間來實現,從而降低對冗余冷水機組、新風機組和CRAC單元的投入。
即使在傳統機械設備設計為N + 1級冗余的情況下, 免費冷卻能力與允許的溫度小時可以提供另一個級別的冗余,將冷卻系統從基本的可用性級別提升到容錯的級別以及同時可維護的能力,為達到一定程度的穩健性性,否則可能無法負擔的起。
到目前為止,在看到安裝標準機架服務器、刀片系統之間的潛在差異以及與新的ASHRAE TC9.9服務器類相關的機會之后,應該清楚的是,對于采購哪類器對數據中心的設備操作效率的影響要遠遠大于對CRAC單元的選擇,散熱策略、冷水機組以及其他一些與其他元素通常都與此有關。
此外,還有一些決策都與IT領域相關,它們都直接影響數據中心的整體運營能效,對數據中心設計的有效性和文件性也都有關系。
第三部分:指定設備
不這樣做違反了冷熱通道隔離,導致需要較低的溫度設定點以及更高的氣流量輸送,從而降低總體冗余冷卻能力以及更高的運行成本。
服務器不僅僅是數據中心指定的唯一的IT管理設備,網絡交換機的數量可能無法接近服務器的數量,但它們仍然對IT企業的有效運作至關重要。
交換機的選擇過程通常會考慮需要多少個端口,無論它是具有第三層或路由器功能的核心交換機還是分布式交換機,無論是非管理還是必須被管理,
無論是速度、延遲還是原始容量,都是最重要的,以及在以太網和冗余方面需要什么。此外,交換機通常也會引起對可伸縮性、虛擬化計劃、應用程序部署速度和應用程序訪問速度的關注。調查和采購開關應該與整體業務需求密切相關。
在核心業務目標的范圍內,效率和可達性也屬于核心業務目標的范圍,對于數據中心整體有效的空中交通管理的影響,也應該成為整體標準清單的一部分。就數據中心的設備健康而言,所有的設備都應該是可以安裝的,并且機架可以從前到后保持氣流暢通。
這一標準是一種公認的最佳實踐,來自于歐洲數據中心行為準則、bicsi-002和ASHRAE TC9.9。,只是,要是它真這么簡單就好了。
然而,盡管與服務器、存儲設備的數量相比,數據中心可能有一小部分的交換機,但非標準的空氣流量的的影響依然是驚人的。一個具有3500平方英尺的計算機室,總功率為514千瓦的例子,說明不受控制的非標準氣流對網絡硬件的影響。
圖1顯示了這種不受控制的氣流的的影響。有6個機架,每個機架功率3千瓦,但是一個機架的設備溫度是從73° F(23℃)到90 °F(32攝氏度),一個6千瓦的核心開關架正在吸收空氣,從56° F (13℃)到 85° F(29℃)。
雖然這些溫度實際上是由制造商的特殊情況所允許的,但它們超過了所有者的內部SLA,更重要的是,它們破壞了這個空間的有效設計。所有的服務器機柜都配備了排氣煙囪,連接到一個懸掛的天花板返回空間,而供應氣流則直接進入了所有的冷通道。
此外,天花板格柵位于沒有安裝機柜的周圍,以捕獲熱回風。 然而,為了降低熱點的數量以及這些熱點產生的嚴重性,冷卻系統溫度設定在72°F(22℃)的設定點,導致54°F(12℃)的空氣通常通過頂部管道輸送。 此外,冷卻系統需要提供82,500 CFM以滿足IT設備的67,900 CFM需求。
圖1
將這些結果與具有相同數據中心的模型進行對比,并將所有返回氣流全部有效的包含在內。側面氣流重新部署在機柜中,將氣流為前送后回,然后將這些機柜捕獲在熱通道密閉結構中。
在入口處,側面到前面和后面到前面的從開放的雙柱架拆下,并重新部署在裝有機架安裝盒的機柜中,將機身重新定位成標準的前后結構,然后這些機柜配有垂直排氣管。
此外,由于這些改變消除了整個房間的所有熱點,所以對頂置管道輸送系統的需求被消除,從總資本計劃中消除了這些成本。 圖2說明了這些變化的結果。
不僅溫度更穩定,溫度更低,設定溫度從54° F(12℃)升到75° F(23.8℃),冷卻裝置的能量節省了38%。
此外,根據本文前面討論的非線性風扇定律關系,將設備入口溫度保持在75°F(24℃)至76°F(24.4℃)之間的空氣流量從82,500 CFM降至72,000 CFM,從而節省了33.5%的CRAH風扇能耗。
所有相關的最佳做法和標準規定,只有通過從前到后的氣流的設備才能實現適當的氣流管理。 不幸的是,其他應用標準通常導致不合格設備的選擇。
幸運的是,有一些方法可以將任何設備改變成相當于前后送回風的方式。對于側向氣流,現在有更寬的機柜可用內部功能,將重新定向氣流方向以符合數據中心的其余部分。
圖2
對于可能具有前端到側面氣流或從側到左或從左到右,甚至從前到后的較小輪廓的交換機,有可用的機架安裝盒,將將這些氣流模式重定向到符合數據中心的其余部分。
這些盒子通常會消耗一個或兩個額外的機架安裝單元,但是它們將保持其他設計良好且被執行的空間的完整性。 一些存儲設備將對數據中心經理提出類似的挑戰; 然而,某種形式的調整是可行的,并且應該被利用來最大限度地提高數據中心機械設備的效率或增加數據中心設備的有效容量。