精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心行業動態 → 正文

綠色數據中心 靠奇葩的散熱降低能耗并不一定適用

責任編輯:editor006 作者:ZC |來源:企業網D1Net  2016-05-30 14:04:56 本文摘自:51CTO

在節能減排的大背景下,如何打造綠色節能的數據中心,降低能耗,控制成本,工程師們為此操碎了心。的確,在數據量爆增的當下,數據中心的節能減排問題已經引起了各大企業的足夠重視,為了降低數據中心的能源消耗,工程師們使出了渾身解數,例如把數據中心建在冰川或者海底下,把服務器放到礦物油中散熱,利用熱水散熱等等。首先,我們來盤點一下數據中心各種“奇葩”散熱方式。

1)將數據中心建在南北極

將數據中心建在南北極,利用自然環境進行散熱,從2011年開始,Facebook就宣布了在瑞典北部的盧雷亞(Lulea)建立該數據中心,以有效利用當地的可再生能源,確保綠色環保。另外,美國國家科學基金會也計劃在南極運行一個數據中心。不過,考慮到生存條件、氣候、環境和電力、傳輸線路等因素的影響,在南北極建立數據中心的難度將非常大。

2)在海底建立數據中心

由于水的散熱效率比空氣更高,因此很多科學家正在努力研究如何利用水資源對數據中心進行散熱。據了解,美國微軟公司正在試驗水下數據中心,探索利用海水解決數據中心的制冷和供電兩大問題,降低運行成本。報道稱,從去年開始,在美國西部加利福尼亞州一處海域微軟首次對一個水下數據中心的原型機進行測試,該原型機設在一個直徑約2.4米的鋼質圓柱形密封艙內,被放置于海面以下約9米處。研究人員在位于美國西北部華盛頓州的微軟總部辦公室對它進行操控。該水下數據中心原型機裝配了100多個傳感器,可以感知壓力、濕度等狀況,幫助研究人員更好地了解它在水下環境的運行情況。由于原型機運轉良好,研究人員不僅延長了測試時間,還用它來運作微軟云計算服務的商業數據處理項目。據了解,為期3個多月的測試取得了超出預期的成功。

3)利用油冷為數據中心散熱

油冷散熱其實是從水冷進化而來,由于礦物油是非極性物質,不會對電子集成回路產生影響,對服務器內部硬件不會有損壞,因此如果將服務器浸入到特殊的油液中,就可以很好的提高散熱效率。在很早之前,Intel聯合一家名為Green Revolution Cooling的公司設計出一套采用礦物油進行降溫的方案,并進行了為期一年的測試,最終的結果令人瞠目結舌,該系統的PUE低至1.02-1.03,已經非常非常接近極限值1。

4)利用海水/湖水/廢水進行散熱

在眾多五花八門的散熱解決方案中,利用海水/湖水/廢水進行散熱是最靠譜的,也是有成功的解決方案的。例如阿里巴巴千島湖數據中心采用湖水進行自然冷卻,這使得其年平均PUE低于1.3,最低的時候可以達到1.17。Google則充分利用了海水進行散熱,在芬蘭的哈米納建立了一座這樣的數據中心。Google還與佐治亞州道格拉斯的污水管理局合作,通過使用生活廢水來帶走當地數據中心大部分的熱量。

5)利用熱水進行散熱

這種反其道而行之的散熱方式看起來比較奇葩,但的確存在這樣的數據中心。例如eBay在美國鳳凰城的數據中心就處在沙漠之中,這座數據中心的室外平均溫度約為46攝氏度,為了解決散熱難題,工程師們反其道而行之,采用了“非主流”的熱水冷卻技術實現降溫。具體的解決辦法是在數據中心外圍的塔罐里注入了溫度約為30.5攝氏度的“熱水”,以此來避免數據中心的服務器過熱,從而最終達到“冷卻”的效果。至于熱水來源和散熱效果,官方并沒有回應。

筆者認為,這些五花八門的散熱方式,確實可以大幅降低數據中心的能耗,但并非全部適用。其中,絕大部分數據中心的建設仍然不會采取這些“奇葩”散熱方式。分析原因主要有以下幾個方面:

一是建設投入成本過高。解決數據中心能耗的關鍵是降低運營成本,如果前期建設投入的成本過高,相信不會有企業投入這樣的項目,像以上所述的海底數據中心、油冷數據中心等,即使技術已經足夠成熟,前期肯定要花費巨額的投資,沒有巨額的資金難以支撐這樣的項目。

二是技術不夠成熟。以上五花八門的數據中心散熱方式,很多都是在驗證階段,技術并不成熟,實現起來將是困難重重。例如在南北極建立數據中心,雖然看起來很美,但面對南北極復雜的地理、氣候等環境,如果解決電力供應、線路布置等一系列難題呢?更不用說建成之后每年花在它們身上的維護運營成本了。

或者,以上奇葩的散熱方式可能會在日后成為數據中心的主流散熱方式,但至少在今天,傳統的風冷、水冷散熱方式仍然是無可替代的。當然,除了通過更好的散熱方式解決數據中心能耗問題外,筆者認為通過以下方式,也可以有效的控制能源,提高數據中心的效率。

1)集中存放高利用率的數據服務器,并用全閃存替代機械硬盤。對于一些數據讀取頻繁的數據中心,可以采用集中存放的方式進行管理。這樣的好處是可以根據不同的數據中心規劃不同的散熱解決方案,例如高負載的數據中心全部采用發熱量更低的全閃存存儲,以降低硬件的發熱量,同時采用更高效的散熱方式確保數據中心的穩定運行。而對于那些負載較低的數據中心,則可以單獨規劃散熱系統,這樣可以根據數據中心的不同設計不同的散熱方案,讓散熱設備更好的為數據中心服務。

2)加強數據中心監控,提高數據中心的利用效率。利用專業的監控軟件實時監控數據中心各服務器的工作狀態,發現低效能的服務,讓無謂耗電的Ghost服務器無處藏身。

3)規劃合理的機房布線也可以有效的解決數據中心散熱難題。空氣流動的空間越大,熱空氣移除和冷空氣循環所耗費的能源就越少。使用綜合布線不但能夠極大減少電纜用量,從而緩解通道擁擠和氣流阻塞情況。大型數據中心熱管理的布線應該遵守以下黃金法則:

一是使用綜合布線系統限制氣流阻塞;

二是合理設計和管理架空地板下的電纜;

三是高壓電纜敷設在冷通道的地板下;

四是低壓通信線纜放在機柜下或直接放在熱通道地板下;

五是減少天花板的數量,或只是在有源機柜上方放置天花板。

以上,是筆者對綠色數據中心建設的一些看法,你也可以分享自己觀點,共同探討。

關鍵字:數據中心奇葩

本文摘自:51CTO

x 綠色數據中心 靠奇葩的散熱降低能耗并不一定適用 掃一掃
分享本文到朋友圈
當前位置:數據中心行業動態 → 正文

綠色數據中心 靠奇葩的散熱降低能耗并不一定適用

責任編輯:editor006 作者:ZC |來源:企業網D1Net  2016-05-30 14:04:56 本文摘自:51CTO

在節能減排的大背景下,如何打造綠色節能的數據中心,降低能耗,控制成本,工程師們為此操碎了心。的確,在數據量爆增的當下,數據中心的節能減排問題已經引起了各大企業的足夠重視,為了降低數據中心的能源消耗,工程師們使出了渾身解數,例如把數據中心建在冰川或者海底下,把服務器放到礦物油中散熱,利用熱水散熱等等。首先,我們來盤點一下數據中心各種“奇葩”散熱方式。

1)將數據中心建在南北極

將數據中心建在南北極,利用自然環境進行散熱,從2011年開始,Facebook就宣布了在瑞典北部的盧雷亞(Lulea)建立該數據中心,以有效利用當地的可再生能源,確保綠色環保。另外,美國國家科學基金會也計劃在南極運行一個數據中心。不過,考慮到生存條件、氣候、環境和電力、傳輸線路等因素的影響,在南北極建立數據中心的難度將非常大。

2)在海底建立數據中心

由于水的散熱效率比空氣更高,因此很多科學家正在努力研究如何利用水資源對數據中心進行散熱。據了解,美國微軟公司正在試驗水下數據中心,探索利用海水解決數據中心的制冷和供電兩大問題,降低運行成本。報道稱,從去年開始,在美國西部加利福尼亞州一處海域微軟首次對一個水下數據中心的原型機進行測試,該原型機設在一個直徑約2.4米的鋼質圓柱形密封艙內,被放置于海面以下約9米處。研究人員在位于美國西北部華盛頓州的微軟總部辦公室對它進行操控。該水下數據中心原型機裝配了100多個傳感器,可以感知壓力、濕度等狀況,幫助研究人員更好地了解它在水下環境的運行情況。由于原型機運轉良好,研究人員不僅延長了測試時間,還用它來運作微軟云計算服務的商業數據處理項目。據了解,為期3個多月的測試取得了超出預期的成功。

3)利用油冷為數據中心散熱

油冷散熱其實是從水冷進化而來,由于礦物油是非極性物質,不會對電子集成回路產生影響,對服務器內部硬件不會有損壞,因此如果將服務器浸入到特殊的油液中,就可以很好的提高散熱效率。在很早之前,Intel聯合一家名為Green Revolution Cooling的公司設計出一套采用礦物油進行降溫的方案,并進行了為期一年的測試,最終的結果令人瞠目結舌,該系統的PUE低至1.02-1.03,已經非常非常接近極限值1。

4)利用海水/湖水/廢水進行散熱

在眾多五花八門的散熱解決方案中,利用海水/湖水/廢水進行散熱是最靠譜的,也是有成功的解決方案的。例如阿里巴巴千島湖數據中心采用湖水進行自然冷卻,這使得其年平均PUE低于1.3,最低的時候可以達到1.17。Google則充分利用了海水進行散熱,在芬蘭的哈米納建立了一座這樣的數據中心。Google還與佐治亞州道格拉斯的污水管理局合作,通過使用生活廢水來帶走當地數據中心大部分的熱量。

5)利用熱水進行散熱

這種反其道而行之的散熱方式看起來比較奇葩,但的確存在這樣的數據中心。例如eBay在美國鳳凰城的數據中心就處在沙漠之中,這座數據中心的室外平均溫度約為46攝氏度,為了解決散熱難題,工程師們反其道而行之,采用了“非主流”的熱水冷卻技術實現降溫。具體的解決辦法是在數據中心外圍的塔罐里注入了溫度約為30.5攝氏度的“熱水”,以此來避免數據中心的服務器過熱,從而最終達到“冷卻”的效果。至于熱水來源和散熱效果,官方并沒有回應。

筆者認為,這些五花八門的散熱方式,確實可以大幅降低數據中心的能耗,但并非全部適用。其中,絕大部分數據中心的建設仍然不會采取這些“奇葩”散熱方式。分析原因主要有以下幾個方面:

一是建設投入成本過高。解決數據中心能耗的關鍵是降低運營成本,如果前期建設投入的成本過高,相信不會有企業投入這樣的項目,像以上所述的海底數據中心、油冷數據中心等,即使技術已經足夠成熟,前期肯定要花費巨額的投資,沒有巨額的資金難以支撐這樣的項目。

二是技術不夠成熟。以上五花八門的數據中心散熱方式,很多都是在驗證階段,技術并不成熟,實現起來將是困難重重。例如在南北極建立數據中心,雖然看起來很美,但面對南北極復雜的地理、氣候等環境,如果解決電力供應、線路布置等一系列難題呢?更不用說建成之后每年花在它們身上的維護運營成本了。

或者,以上奇葩的散熱方式可能會在日后成為數據中心的主流散熱方式,但至少在今天,傳統的風冷、水冷散熱方式仍然是無可替代的。當然,除了通過更好的散熱方式解決數據中心能耗問題外,筆者認為通過以下方式,也可以有效的控制能源,提高數據中心的效率。

1)集中存放高利用率的數據服務器,并用全閃存替代機械硬盤。對于一些數據讀取頻繁的數據中心,可以采用集中存放的方式進行管理。這樣的好處是可以根據不同的數據中心規劃不同的散熱解決方案,例如高負載的數據中心全部采用發熱量更低的全閃存存儲,以降低硬件的發熱量,同時采用更高效的散熱方式確保數據中心的穩定運行。而對于那些負載較低的數據中心,則可以單獨規劃散熱系統,這樣可以根據數據中心的不同設計不同的散熱方案,讓散熱設備更好的為數據中心服務。

2)加強數據中心監控,提高數據中心的利用效率。利用專業的監控軟件實時監控數據中心各服務器的工作狀態,發現低效能的服務,讓無謂耗電的Ghost服務器無處藏身。

3)規劃合理的機房布線也可以有效的解決數據中心散熱難題。空氣流動的空間越大,熱空氣移除和冷空氣循環所耗費的能源就越少。使用綜合布線不但能夠極大減少電纜用量,從而緩解通道擁擠和氣流阻塞情況。大型數據中心熱管理的布線應該遵守以下黃金法則:

一是使用綜合布線系統限制氣流阻塞;

二是合理設計和管理架空地板下的電纜;

三是高壓電纜敷設在冷通道的地板下;

四是低壓通信線纜放在機柜下或直接放在熱通道地板下;

五是減少天花板的數量,或只是在有源機柜上方放置天花板。

以上,是筆者對綠色數據中心建設的一些看法,你也可以分享自己觀點,共同探討。

關鍵字:數據中心奇葩

本文摘自:51CTO

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 西城区| 论坛| 麻栗坡县| 诏安县| 贵南县| 济宁市| 庄河市| 灌云县| 鹤山市| 泾源县| 昂仁县| 塔城市| 噶尔县| 汽车| 夹江县| 德化县| 呈贡县| 宝山区| 铜梁县| 承德市| 田阳县| 尼勒克县| 砀山县| 鹿邑县| 西安市| 探索| 浪卡子县| 榆中县| 赫章县| 黄石市| 榆社县| 万宁市| 和政县| 资溪县| 昌图县| 临清市| 凤庆县| 洱源县| 吴堡县| 隆德县| 和政县|