精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心散熱制冷 → 正文

酷暑要降溫 數據中心冷卻方案如何選?

責任編輯:Eva |來源:企業網D1Net  2011-07-07 08:36:34 本文摘自:中關村在線

數據中心密度的持續增加給選擇合理有效的冷卻技術帶來了巨大挑戰。為此,本文將重點討論數據中心常用的液體冷卻和空氣冷卻方案,并分析在何種情況下能發揮出最大裨益。

眾所周知,數據中心的部署是一個牽扯到很多層面的問題,而這些層面又會受各種因素制約,不同的因素需要根據總成本來綜合考慮。通常來說,液體冷卻方案一般比較昂貴,而且還不一定更有效。而空氣冷卻則面臨機架密度的限制,雖然部分可以通過氣流分離策略來克服的。

業務挑戰

數據中心計算能力的擴充導致了機架和功率密度的增加,對這些新增加能耗更大的機架如何進行冷卻是所有數據中心經理所面臨的一個重大挑戰。在過去對新增加的服務器添置機房空調就足夠滿足散熱冷卻需求。當數據中心在每平方英尺(1平方英尺=0.09290304平方米)范圍內的功耗為75-100瓦的時候,采用這種散熱冷卻方案完全能滿足需要,而且能耗成本幾乎可以忽略不計。

然而,現在的IT設備已經使得數據中心的功耗達到了750瓦每平方英尺,而且冷卻帶來的挑戰和成本已經面臨前所未有的境地。功率密度也隨著業務增長和設備的擴容而不斷增加,從而為冷卻技術帶來了新一輪挑戰。ASHRAE(American Society of Heating, Refrigerating, and Air-Conditioning Engineers 美國熱、冷凍和空調工程師協會)公布了一項未來熱負荷統計報表。

IT設備中每機架的功率密度(單位為:KW/Rack)

圖中表明,從現在至2014年期間,在使用最新產品全部部署的情況下未來的熱負荷將達到37KW/Rack。有趣的是,功耗主要不是來自CPU電力的增加,而是來自平臺上內存的增加。CPU的功耗控制在技術不斷進步的今天已經表現出眾,而內存則會因為CPU內核的增加而不斷增多。一般來說,高端平臺架構需要有足夠多的DIMMs或者單核心上有更多的內存容量。而且隨著內存核心數量的持續增加,安裝的內存也會多了起來。這樣一來,內存冷卻就成了未來幾年散熱方案的主要挑戰。

技術挑戰

數據中心冷卻更多的是一個熱力學方面的問題。它擁有熱源(服務器)和散熱通道(通常是室外環境)。當然,數據中心還有其他的熱源,限于討論的篇幅,我們在文中僅討論服務器這一熱源。

根據熱源和散熱口的溫度與距離遠近,熱源從服務器傳遞到室外將有一個有效范圍,特別是需要多少額外能源來完成這些熱源的傳遞,更需要值得關注。因而,很重要的一點是考慮這些額外能源在整個系統中的使用情況。這其中首先包括支持流體(空氣、水或者液體)將熱量從熱源向散熱口移動的能源支撐,這主要會涉及到風扇、泵。

位于Rio Rancho、英特爾的曾經世界第三快的超級計算機中心

另外一個使用能源的地方是冷水機組系統。通常情況下,散熱口的溫度會很高從而影響到能源輸送,冷水機組可以提供一個低溫水槽(類似冷水)幫助降低溫度。

散熱解決方案

現在我們討論不同類型的散熱解決方案。根據前面內容介紹,這里我們將主要講述液體冷卻和空氣冷卻,然后對它們的優勢利弊分別予以討論。

散熱解決方案在數據中心的搭建過程中,扮演著十分重要的作用。在對數據中心進行規劃的時候,就需要對散熱問題進行前瞻性地謀劃,不僅要考慮到當前數據中心散熱的情況,更要考慮到如何滿足未來幾年數據中心不斷擴容帶來的復雜問題。

液體冷卻

液體冷卻屬于傳統的冷卻技術。在本文中,我們重點討論液體冷卻機架環境下的表現,而不會討論液體冷卻在服務器上的應用。目前,大部分數據中心都使用液體冷卻,它主要應用在機房空調和空氣處理方面。液體冷卻機架主要是對現有的液體冷卻環流應用的延伸。液體冷卻也出現了越來越多的熱管或蒸氣室新應用類型,不過萬變不離其宗,我們仍必須考慮空氣冷卻作為熱傳遞的重要性。

采用液體冷卻的數據中心

橫跨服務器/機架通道的液體擁有更高的熱耗散空間,但同時也會對整個數據中心帶來更高的成本,給服務器的使用增添復雜。由于成本和復雜性因素,很多公司(比如英特爾)并不看好這一冷卻方案,并期待著在某些專門的高密度應用領域減少這種冷卻方案的使用。

應用在機架上的液體冷卻可以采用多種形式。其中一種就是對門板進行冷卻——也就是機架后方的面板。通過冷卻周邊空氣使得機架的溫度能保持在室溫的正常狀態下。

液體冷卻

液體冷卻

液體冷卻機架的另一種方式就是采用封閉液體冷卻機架,也就是在機架的全身都包裹著一層含有氣流的絕熱層,這種方式通常都是在底部通過熱傳遞來對整個機架進行降溫,在一個相互連接的液體冷卻系統中熱量獲得疏散。這種設置的優勢是空氣流和熱量在室內會保持中性,不至于太熱,從而不會有噪音。潛在的缺點是,冷卻系統一旦出現故障,需要手動開啟柜門以避免過熱。

液體冷卻效率

很多人聲稱液體冷卻效率能解決數據中心帶來的電力問題。如果從CPU到冷卻塔都采用液體冷卻方式,那么冷卻子系統效率自然會很高。不幸的是,除了CPU還有很多平臺需要進行冷卻,因此服務器組件的散熱需求注定要有空氣冷卻進行補充。

另一方面,如果我們需要對平臺的其他組件進行冷卻,我們可以利用空氣來對整個平臺進行冷卻,從服務器到機架外部,空氣冷卻都無時不刻不在起作用。一般說來, 它會通過空氣將服務器熱源傳遞給機房空調系統或者空氣冷卻系統。數據中心往往都配有很多機房空調系統或者空氣冷卻系統,規模或大或小,不過它們往往都是針對整個設施中心而不是某個機架級的冷卻系統。數據中心的冷卻系統一般都混合采用這兩種方案。在某些情況下,空氣存在機架的散熱液中,但液體會將熱量散播到室外。

冷熱通道隔離散熱

空氣冷卻不足

談到空氣冷卻的不足,往往會引起對健康問題的激烈爭辯,但我們需要結合理論對實際情況進行分析。實際情況方面的限制因素主要是要考慮到當前的設計規劃。如果數據中心的空間有限,地板存有不少障礙物、風機容量也有限,那么需要采用空氣冷卻能夠支持的最優方案。數據中心運營商需要根據自身實際經驗來決定如何將空氣冷卻實現最優。而如何做出決定,關鍵在于對比機房氣流與供應商冷卻需要的氣流之間的比例。

而對于空氣冷卻的理論因素方面,更多的是基于服務器而不是機房。服務器供應商提供熱量管理系統,通過隨機的系統風扇調節氣流,幫助冷卻CPU和服務器中其他所有組件。因此,如果機房能滿足服務器的氣流需要而無需在數據中心里面循環反復,那么散熱的瓶頸就會是在服務器上而不是機房本身。

目前,英特爾已經成功推出實現30KW熱密度的空氣冷卻機架系統,在2014年將能實現大規模應用。

氣流分離

空氣冷卻能成功達到30KW熱密度,主要依賴于氣流分離技術。最先使用同時也是使用最為常見的技術就是,將冷熱通道進行隔離。在這種方法的指導下部署機架,機架的入口與連接至冷卻系統的冷通道相連,然后將熱氣流通過熱通道回傳至冷卻系統。根據服務器的不同,整個機架內的氣流流速應該為800-1200(每分鐘立方英尺CFM)。

最高機架密度和平均機架密度條件下的不同熱密度

當然,空氣冷卻也能輕易超越以上所指的范圍,但它會增添額外的成本和復雜性。如前所述,關鍵是實現氣流分離。

總結

液體冷卻是否是高密度機架的良方呢?并不是。那液體冷卻在某些情況下是否是理想之選呢?肯定是。特別是受現有數據中心有限架構制約而未能充分發揮冷卻性能的情況下,液體冷卻方案可以成為一種不錯選擇。不過,無論在何種情況下,在評估擴充冷卻方案可行性之后需要有一份詳細的工程分析。

對于CIO來說,首先要舍得花功夫去分析和思考數據中心的冷卻工程。因為每一個數據中心都有各自的特點,只有通過準確評估,充分理解自己所負責的數據中心,了解其散熱特點,才能提出一個切實可行而又能保證高效率低TCO的解決方案。

關鍵字:數據中心冷卻方案

本文摘自:中關村在線

x 酷暑要降溫 數據中心冷卻方案如何選? 掃一掃
分享本文到朋友圈
當前位置:數據中心散熱制冷 → 正文

酷暑要降溫 數據中心冷卻方案如何選?

責任編輯:Eva |來源:企業網D1Net  2011-07-07 08:36:34 本文摘自:中關村在線

數據中心密度的持續增加給選擇合理有效的冷卻技術帶來了巨大挑戰。為此,本文將重點討論數據中心常用的液體冷卻和空氣冷卻方案,并分析在何種情況下能發揮出最大裨益。

眾所周知,數據中心的部署是一個牽扯到很多層面的問題,而這些層面又會受各種因素制約,不同的因素需要根據總成本來綜合考慮。通常來說,液體冷卻方案一般比較昂貴,而且還不一定更有效。而空氣冷卻則面臨機架密度的限制,雖然部分可以通過氣流分離策略來克服的。

業務挑戰

數據中心計算能力的擴充導致了機架和功率密度的增加,對這些新增加能耗更大的機架如何進行冷卻是所有數據中心經理所面臨的一個重大挑戰。在過去對新增加的服務器添置機房空調就足夠滿足散熱冷卻需求。當數據中心在每平方英尺(1平方英尺=0.09290304平方米)范圍內的功耗為75-100瓦的時候,采用這種散熱冷卻方案完全能滿足需要,而且能耗成本幾乎可以忽略不計。

然而,現在的IT設備已經使得數據中心的功耗達到了750瓦每平方英尺,而且冷卻帶來的挑戰和成本已經面臨前所未有的境地。功率密度也隨著業務增長和設備的擴容而不斷增加,從而為冷卻技術帶來了新一輪挑戰。ASHRAE(American Society of Heating, Refrigerating, and Air-Conditioning Engineers 美國熱、冷凍和空調工程師協會)公布了一項未來熱負荷統計報表。

IT設備中每機架的功率密度(單位為:KW/Rack)

圖中表明,從現在至2014年期間,在使用最新產品全部部署的情況下未來的熱負荷將達到37KW/Rack。有趣的是,功耗主要不是來自CPU電力的增加,而是來自平臺上內存的增加。CPU的功耗控制在技術不斷進步的今天已經表現出眾,而內存則會因為CPU內核的增加而不斷增多。一般來說,高端平臺架構需要有足夠多的DIMMs或者單核心上有更多的內存容量。而且隨著內存核心數量的持續增加,安裝的內存也會多了起來。這樣一來,內存冷卻就成了未來幾年散熱方案的主要挑戰。

技術挑戰

數據中心冷卻更多的是一個熱力學方面的問題。它擁有熱源(服務器)和散熱通道(通常是室外環境)。當然,數據中心還有其他的熱源,限于討論的篇幅,我們在文中僅討論服務器這一熱源。

根據熱源和散熱口的溫度與距離遠近,熱源從服務器傳遞到室外將有一個有效范圍,特別是需要多少額外能源來完成這些熱源的傳遞,更需要值得關注。因而,很重要的一點是考慮這些額外能源在整個系統中的使用情況。這其中首先包括支持流體(空氣、水或者液體)將熱量從熱源向散熱口移動的能源支撐,這主要會涉及到風扇、泵。

位于Rio Rancho、英特爾的曾經世界第三快的超級計算機中心

另外一個使用能源的地方是冷水機組系統。通常情況下,散熱口的溫度會很高從而影響到能源輸送,冷水機組可以提供一個低溫水槽(類似冷水)幫助降低溫度。

散熱解決方案

現在我們討論不同類型的散熱解決方案。根據前面內容介紹,這里我們將主要講述液體冷卻和空氣冷卻,然后對它們的優勢利弊分別予以討論。

散熱解決方案在數據中心的搭建過程中,扮演著十分重要的作用。在對數據中心進行規劃的時候,就需要對散熱問題進行前瞻性地謀劃,不僅要考慮到當前數據中心散熱的情況,更要考慮到如何滿足未來幾年數據中心不斷擴容帶來的復雜問題。

液體冷卻

液體冷卻屬于傳統的冷卻技術。在本文中,我們重點討論液體冷卻機架環境下的表現,而不會討論液體冷卻在服務器上的應用。目前,大部分數據中心都使用液體冷卻,它主要應用在機房空調和空氣處理方面。液體冷卻機架主要是對現有的液體冷卻環流應用的延伸。液體冷卻也出現了越來越多的熱管或蒸氣室新應用類型,不過萬變不離其宗,我們仍必須考慮空氣冷卻作為熱傳遞的重要性。

采用液體冷卻的數據中心

橫跨服務器/機架通道的液體擁有更高的熱耗散空間,但同時也會對整個數據中心帶來更高的成本,給服務器的使用增添復雜。由于成本和復雜性因素,很多公司(比如英特爾)并不看好這一冷卻方案,并期待著在某些專門的高密度應用領域減少這種冷卻方案的使用。

應用在機架上的液體冷卻可以采用多種形式。其中一種就是對門板進行冷卻——也就是機架后方的面板。通過冷卻周邊空氣使得機架的溫度能保持在室溫的正常狀態下。

液體冷卻

液體冷卻

液體冷卻機架的另一種方式就是采用封閉液體冷卻機架,也就是在機架的全身都包裹著一層含有氣流的絕熱層,這種方式通常都是在底部通過熱傳遞來對整個機架進行降溫,在一個相互連接的液體冷卻系統中熱量獲得疏散。這種設置的優勢是空氣流和熱量在室內會保持中性,不至于太熱,從而不會有噪音。潛在的缺點是,冷卻系統一旦出現故障,需要手動開啟柜門以避免過熱。

液體冷卻效率

很多人聲稱液體冷卻效率能解決數據中心帶來的電力問題。如果從CPU到冷卻塔都采用液體冷卻方式,那么冷卻子系統效率自然會很高。不幸的是,除了CPU還有很多平臺需要進行冷卻,因此服務器組件的散熱需求注定要有空氣冷卻進行補充。

另一方面,如果我們需要對平臺的其他組件進行冷卻,我們可以利用空氣來對整個平臺進行冷卻,從服務器到機架外部,空氣冷卻都無時不刻不在起作用。一般說來, 它會通過空氣將服務器熱源傳遞給機房空調系統或者空氣冷卻系統。數據中心往往都配有很多機房空調系統或者空氣冷卻系統,規模或大或小,不過它們往往都是針對整個設施中心而不是某個機架級的冷卻系統。數據中心的冷卻系統一般都混合采用這兩種方案。在某些情況下,空氣存在機架的散熱液中,但液體會將熱量散播到室外。

冷熱通道隔離散熱

空氣冷卻不足

談到空氣冷卻的不足,往往會引起對健康問題的激烈爭辯,但我們需要結合理論對實際情況進行分析。實際情況方面的限制因素主要是要考慮到當前的設計規劃。如果數據中心的空間有限,地板存有不少障礙物、風機容量也有限,那么需要采用空氣冷卻能夠支持的最優方案。數據中心運營商需要根據自身實際經驗來決定如何將空氣冷卻實現最優。而如何做出決定,關鍵在于對比機房氣流與供應商冷卻需要的氣流之間的比例。

而對于空氣冷卻的理論因素方面,更多的是基于服務器而不是機房。服務器供應商提供熱量管理系統,通過隨機的系統風扇調節氣流,幫助冷卻CPU和服務器中其他所有組件。因此,如果機房能滿足服務器的氣流需要而無需在數據中心里面循環反復,那么散熱的瓶頸就會是在服務器上而不是機房本身。

目前,英特爾已經成功推出實現30KW熱密度的空氣冷卻機架系統,在2014年將能實現大規模應用。

氣流分離

空氣冷卻能成功達到30KW熱密度,主要依賴于氣流分離技術。最先使用同時也是使用最為常見的技術就是,將冷熱通道進行隔離。在這種方法的指導下部署機架,機架的入口與連接至冷卻系統的冷通道相連,然后將熱氣流通過熱通道回傳至冷卻系統。根據服務器的不同,整個機架內的氣流流速應該為800-1200(每分鐘立方英尺CFM)。

最高機架密度和平均機架密度條件下的不同熱密度

當然,空氣冷卻也能輕易超越以上所指的范圍,但它會增添額外的成本和復雜性。如前所述,關鍵是實現氣流分離。

總結

液體冷卻是否是高密度機架的良方呢?并不是。那液體冷卻在某些情況下是否是理想之選呢?肯定是。特別是受現有數據中心有限架構制約而未能充分發揮冷卻性能的情況下,液體冷卻方案可以成為一種不錯選擇。不過,無論在何種情況下,在評估擴充冷卻方案可行性之后需要有一份詳細的工程分析。

對于CIO來說,首先要舍得花功夫去分析和思考數據中心的冷卻工程。因為每一個數據中心都有各自的特點,只有通過準確評估,充分理解自己所負責的數據中心,了解其散熱特點,才能提出一個切實可行而又能保證高效率低TCO的解決方案。

關鍵字:數據中心冷卻方案

本文摘自:中關村在線

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 施秉县| 江孜县| 邵阳市| 那坡县| 亳州市| 汝城县| 那坡县| 开平市| 尼玛县| 乐至县| 鹤峰县| 星子县| 锦州市| 郓城县| 晋城| 重庆市| 鸡泽县| 定南县| 新丰县| 西和县| 富平县| 海宁市| 申扎县| 满洲里市| 正蓝旗| 阿拉尔市| 祥云县| 文昌市| 凤阳县| 故城县| 济宁市| 章丘市| 应用必备| 安多县| 贵溪市| 巫山县| 镇安县| 浑源县| 秦皇岛市| 庆安县| 阿拉善右旗|