精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心散熱制冷 → 正文

如何讓數據中心冷卻得到控制有效控制?

責任編輯:editor014 |來源:企業網D1Net  2014-06-12 09:23:45 本文摘自: idcquan

曾經有一段時間,在分布式計算數據中心機房配備空調(CRAC)系統,以維護IT系統的溫度是相當常見的。但時至今日,因為其極高的能源消耗CRAC已成為數據中心的“壞孩子”。

電源使用效率(PUE) 是最常用來評估一家數據中心運作情況的指標(盡管在某些方面其存在嚴重缺陷),該指標使用數據中心的總能耗和由IT設備本身所消耗的能耗量之間的比率得出。當剛剛開始采用PUE作為衡量指標時,許多數據中心的PUE值都在3個以上的高分運行,有許多甚至達到5以上。即使是現在,根據研究機構Digital Realty trust的調研報告顯示,全球已報告整體平均PUE值為2.9.

而另一項由Uptime Institute主辦的研究,則得出了全球整體平均PUE值為1.85的結論。但問題始終是存在的,即數據中心每消耗一部分電力以為其IT設備供電,必然有部分的電力要用于數據中心設施本身。

想想看,IT設備包括數據中心所有的服務器,存儲和網絡設備。所有其余的電源使用都被計入所謂的“周邊系統”,包括照明,不間斷電源(UPS)系統損失和冷卻。即使是一家大的數據中心也在努力使其照明和現代UPS系統的能源效率能夠達到98%以上。而周邊功率最大的用戶是冷卻。

現在,是時候讓數據中心的冷卻在您的控制之下了,其可能并沒有一般IT專業人士所認為的那樣難。

數據中心并不一定要非常冷

首先,時代變了。數據中心IT設備標準指導運行溫度也已經發生了變化。數據中心不再需要保持17-19 ℃的空氣環境溫度。根據美國采暖,制冷與空調工程師學會(ASHRAE ,American Society of Heating Refrigerating and Air conditioning Engineers)最新的指導方針,允許數據中心環境運行最高溫度達到20℃以上,在一些特殊情況下可以達到30℃,甚至40℃。這可以幫助數據中心運營商大大減少能源消費賬單了。

但這并不是數據中心運營商們所能做的全部。其實有一整套的冷卻方案值得數據中心運營商們借鑒,以便產生快速的投資回報。

集中冷卻最需要冷卻的地方

在整個數據中心范圍內都使用冷卻空氣僅僅只為了給部分體積小的設備降溫,無疑是一種浪費。數據中心管理人員應該使用冷熱通道的方法減少所需的冷空氣量。這可以通過具體的解決方案或者將機架系統的行與行之間的空間覆蓋耐火材料,在每一端使用阻燃聚丙烯來實現。檢查機架以確保冷空氣通過冷通道傳輸到設備的熱點但不繞過他們,但這可以方便合理地監測。

集裝箱式數據中心

對于那些正在審查其基礎設施,想要移動到高度機架,采用整體冷卻的數據中心而言,集裝箱式數據中心可能是一個很好的方法。

使用密封機架,如Chatsworth Tower系統,包括機架內本身的冷卻,冷空氣從堆棧的底部引入,而熱空氣從頂部離開。

來自諸如愛默生和APC這樣的供應商所提供的系統,能夠為機架冷卻系統提供更多的工程解決方案,個別CRAC系統在機架行內,可以用更具針對性的冷卻。

液體冷卻和空氣冷卻

基于液體的冷卻系統也卷土重來。后門水冷卻器是一個適用的解決方案,涵蓋了機架的背面,利用冷卻空氣去除多余的熱量。其他系統直接作用于IT設備,使用負壓系統,將水通過管道,所以即使發生泄漏,空氣會被吸入系統而不是被水壓排出來。IBM的Aquasar和Chilldyne就提供這種系統——但這些都是侵入性的,因為它們的使用需要使用的特定的翅片式換熱器,被連接到被冷卻的芯片。

其它系統,如Iceotope和liquidCool,提供完全將模塊沉浸介電液體的有效方法去除熱。Green Revolution提供了電介質使得設備可以浸沒到液體,保證現有的設備能夠繼續使用。這些系統都可以除去熱量,并可以在其他地方重復使用這些熱能,例如加熱的水被用于企業的其他部分。

室外空氣冷卻方案也是可以考慮的其他方案。在最北部的氣候條件下,一年只有幾天的時間外界溫度是超過冷卻設備需要的運行溫度的。諸如Kyoto Wheel這樣的系統允許外部空氣以最低的成本被充分利用。

絕熱冷卻,這種方法讓液體蒸發的環繞著需要冷卻的物理設備的周圍環境,適用于外界溫度往往超過ASHRAE指導的氣候條件下,或支持更為溫和的氣候地區,其室外的空氣溫度低于系統設備運行所需要的操作溫度。如EcoCooling公司,Munters公司,Keysource公司,Coolerado公司就提供數據中心所使用的絕熱系統。

其目的是最大限度地減少能量的使用,以保持數據中心的IT設備在其所設計的熱參數訪問內操作。使用上面提到的那些方法,像4D Data Centres這樣的公司已成功地建造和運營出PUE值達到1.14的數據中心;而 Datum的數據中心運行的PUE值則為1.25 ;谷歌的PUE值是1.12左右。

這意味著,對于一家現有功率要求為1MW的大型數據中心,現在的PUE值是2,其中500kW能耗將用于IT設備消耗,而500KW能耗用于數據中心設施。通過審查冷卻方案可以將PUE縮小到少于1.2.這樣,同樣500KW的能耗用于IT設備負荷,就只有不到100kW的能耗用于數據中心設施。在這種方式中,節約了400kW的電力成本。在許多情況下,企業都是采用的低成本,低維護的解決方案。

那么現在,是時候花點時間來回顧一下您企業數據中心的冷卻方案了嗎?答案顯然是肯定的。

關鍵字:數據中心

本文摘自: idcquan

x 如何讓數據中心冷卻得到控制有效控制? 掃一掃
分享本文到朋友圈
當前位置:數據中心散熱制冷 → 正文

如何讓數據中心冷卻得到控制有效控制?

責任編輯:editor014 |來源:企業網D1Net  2014-06-12 09:23:45 本文摘自: idcquan

曾經有一段時間,在分布式計算數據中心機房配備空調(CRAC)系統,以維護IT系統的溫度是相當常見的。但時至今日,因為其極高的能源消耗CRAC已成為數據中心的“壞孩子”。

電源使用效率(PUE) 是最常用來評估一家數據中心運作情況的指標(盡管在某些方面其存在嚴重缺陷),該指標使用數據中心的總能耗和由IT設備本身所消耗的能耗量之間的比率得出。當剛剛開始采用PUE作為衡量指標時,許多數據中心的PUE值都在3個以上的高分運行,有許多甚至達到5以上。即使是現在,根據研究機構Digital Realty trust的調研報告顯示,全球已報告整體平均PUE值為2.9.

而另一項由Uptime Institute主辦的研究,則得出了全球整體平均PUE值為1.85的結論。但問題始終是存在的,即數據中心每消耗一部分電力以為其IT設備供電,必然有部分的電力要用于數據中心設施本身。

想想看,IT設備包括數據中心所有的服務器,存儲和網絡設備。所有其余的電源使用都被計入所謂的“周邊系統”,包括照明,不間斷電源(UPS)系統損失和冷卻。即使是一家大的數據中心也在努力使其照明和現代UPS系統的能源效率能夠達到98%以上。而周邊功率最大的用戶是冷卻。

現在,是時候讓數據中心的冷卻在您的控制之下了,其可能并沒有一般IT專業人士所認為的那樣難。

數據中心并不一定要非常冷

首先,時代變了。數據中心IT設備標準指導運行溫度也已經發生了變化。數據中心不再需要保持17-19 ℃的空氣環境溫度。根據美國采暖,制冷與空調工程師學會(ASHRAE ,American Society of Heating Refrigerating and Air conditioning Engineers)最新的指導方針,允許數據中心環境運行最高溫度達到20℃以上,在一些特殊情況下可以達到30℃,甚至40℃。這可以幫助數據中心運營商大大減少能源消費賬單了。

但這并不是數據中心運營商們所能做的全部。其實有一整套的冷卻方案值得數據中心運營商們借鑒,以便產生快速的投資回報。

集中冷卻最需要冷卻的地方

在整個數據中心范圍內都使用冷卻空氣僅僅只為了給部分體積小的設備降溫,無疑是一種浪費。數據中心管理人員應該使用冷熱通道的方法減少所需的冷空氣量。這可以通過具體的解決方案或者將機架系統的行與行之間的空間覆蓋耐火材料,在每一端使用阻燃聚丙烯來實現。檢查機架以確保冷空氣通過冷通道傳輸到設備的熱點但不繞過他們,但這可以方便合理地監測。

集裝箱式數據中心

對于那些正在審查其基礎設施,想要移動到高度機架,采用整體冷卻的數據中心而言,集裝箱式數據中心可能是一個很好的方法。

使用密封機架,如Chatsworth Tower系統,包括機架內本身的冷卻,冷空氣從堆棧的底部引入,而熱空氣從頂部離開。

來自諸如愛默生和APC這樣的供應商所提供的系統,能夠為機架冷卻系統提供更多的工程解決方案,個別CRAC系統在機架行內,可以用更具針對性的冷卻。

液體冷卻和空氣冷卻

基于液體的冷卻系統也卷土重來。后門水冷卻器是一個適用的解決方案,涵蓋了機架的背面,利用冷卻空氣去除多余的熱量。其他系統直接作用于IT設備,使用負壓系統,將水通過管道,所以即使發生泄漏,空氣會被吸入系統而不是被水壓排出來。IBM的Aquasar和Chilldyne就提供這種系統——但這些都是侵入性的,因為它們的使用需要使用的特定的翅片式換熱器,被連接到被冷卻的芯片。

其它系統,如Iceotope和liquidCool,提供完全將模塊沉浸介電液體的有效方法去除熱。Green Revolution提供了電介質使得設備可以浸沒到液體,保證現有的設備能夠繼續使用。這些系統都可以除去熱量,并可以在其他地方重復使用這些熱能,例如加熱的水被用于企業的其他部分。

室外空氣冷卻方案也是可以考慮的其他方案。在最北部的氣候條件下,一年只有幾天的時間外界溫度是超過冷卻設備需要的運行溫度的。諸如Kyoto Wheel這樣的系統允許外部空氣以最低的成本被充分利用。

絕熱冷卻,這種方法讓液體蒸發的環繞著需要冷卻的物理設備的周圍環境,適用于外界溫度往往超過ASHRAE指導的氣候條件下,或支持更為溫和的氣候地區,其室外的空氣溫度低于系統設備運行所需要的操作溫度。如EcoCooling公司,Munters公司,Keysource公司,Coolerado公司就提供數據中心所使用的絕熱系統。

其目的是最大限度地減少能量的使用,以保持數據中心的IT設備在其所設計的熱參數訪問內操作。使用上面提到的那些方法,像4D Data Centres這樣的公司已成功地建造和運營出PUE值達到1.14的數據中心;而 Datum的數據中心運行的PUE值則為1.25 ;谷歌的PUE值是1.12左右。

這意味著,對于一家現有功率要求為1MW的大型數據中心,現在的PUE值是2,其中500kW能耗將用于IT設備消耗,而500KW能耗用于數據中心設施。通過審查冷卻方案可以將PUE縮小到少于1.2.這樣,同樣500KW的能耗用于IT設備負荷,就只有不到100kW的能耗用于數據中心設施。在這種方式中,節約了400kW的電力成本。在許多情況下,企業都是采用的低成本,低維護的解決方案。

那么現在,是時候花點時間來回顧一下您企業數據中心的冷卻方案了嗎?答案顯然是肯定的。

關鍵字:數據中心

本文摘自: idcquan

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 易门县| 化德县| 双辽市| 兴仁县| 岚皋县| 荣成市| 周宁县| 保靖县| 屯昌县| 彭山县| 夏津县| 临安市| 和龙市| 永修县| 和林格尔县| 陕西省| 麻城市| 阳泉市| 阿拉善右旗| 历史| 昭平县| 卓尼县| 二手房| 民县| 平果县| 河池市| 乳山市| 永丰县| 东台市| 梨树县| 永吉县| 富蕴县| 云南省| 阳谷县| 德惠市| 布拖县| 潍坊市| 枣庄市| 上饶县| 永定县| 梁山县|