精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心行業動態 → 正文

行業詬病困擾數據中心降耗節能

責任編輯:editor03 |來源:企業網D1Net  2014-06-24 13:38:36 本文摘自:比特網

隨著移動數據、云計算和大數據業務的迅猛發展, 數據中心建設規模越來越大,數據中心擁有者對數據中心節能的訴求,也逐漸突顯出來。近年來,出現了許多數據中心節能新技術,但都沒有突破思維瓶頸, 一直孤立地關注數據中心基礎設施層面本身的技術創新,并未將服務器設施層面納入數據中心節能工程中, 統一地、系統地思考數據中心的節能問題,造成數據中心的設計PUE值難以突破1.60這個極限。
  
  行業詬病困擾數據中心降耗節能
  
  2000年前后的互聯網泡沫,給人類留下的技術遺產是服務器形態的革命以及數據中心建設理念的革命----由于服務器的規模化應用,機架化的服務器取代了塔式服務器; 同時引發了數據中心建設思路的革命----從機房環境到機柜微環境的變革、高架地板式數據中心成為數據中心的建設標準。
  
  在之后的十年中,數據中心市場逐漸進入了一個高速發展的時期。IT設備的機架化在節省了數據中心物理空間的同時,也提高了機柜的功率密度。數據中心的功率密度,逐漸從低密度向中密度發展,期間出現了許多諸如局部熱點等技術問題。遺憾的是,針對新出現的這些技術問題,行業內并沒有意識到這是一個更高功率密度的新時代到來的預兆, 沒有認真思考應對之道,而是不負責任地試圖使用傳統辦法解決新問題。其結果是,數據中心的能耗指標PUE值,雖然從最初的3.00逐漸降低到了2.00以下,但一直難以突破1.60。
  
  究其原因,是缺乏技術發展戰略上的行業集成思維。事實上,對數據中心能耗貢獻最大的設備或部件----CPU、內存、服務器散熱系統、數據中心空調系統、數據中心UPS系統,其相關行業均在獨自地研究和開發節能技術, 并且多數行業領域的技術創新潛力已經挖掘殆盡。如果不去改變技術戰略和思維方式,產生大的技術成就幾無可能。
  
  國內外一些行業領導者已經意識到這個問題,并開始采取了行動。目前來看,主要有兩個技術方向: 高溫風冷服務器配合數據中心新風直接自然冷卻技術,以及液冷服務器配合數據中心水系統或氟系統間接自然冷卻技術。 前者依靠提高服務器熱源品位和特殊氣候環境來實現節能,后者依靠降低傳熱過程的熱品位損失來實現節能。
  
  2013年Facebook對外界公開了其位于瑞典北部城鎮呂勒奧(Lule)的數據中心,采用的就是新風直接自然冷卻技術。呂勒奧位于波羅的海北岸,距離北極圈只有100公里之遙,當地的氣候因素是Facebook選擇在呂勒奧建立數據重要原因之一。據Facebook介紹,自1961年以來,呂勒奧的氣溫高于30度的時間不超過24小時,在該地區建立數據中心將節省一大筆散熱開支。但是,從國內各地氣候條件來看,南方地區溫度高、北方地區風沙大,類似于呂勒奧這樣數據中心的理想選址地點幾乎沒有;全球范圍來看,新風自然冷卻技術的應用場景也少之又少。
  
  而液冷服務器技術則很少受限,這是因為這種技術不需要空氣進入數據中心,甚至不需要空氣進入服務器。
  
  早在幾年之前,IBM等公司就開發出了以純水為工質的間接液冷型的服務器來取代風冷型服務器,來大幅改善PUE指標, 因為他們意識到空氣作為冷卻用的工質,遠非理想中的最佳材料;而水要比空氣的冷卻效率高1000倍數量級。所謂間接液冷,指的是液體并不接觸發熱部件,而是通過冷板、冷倉等將液體與發熱部件隔離開。
  
  而美國Intel和美國3M則走另一條路線, 采用特殊液體直接與發熱部件接觸進行換熱,即直接式液冷服務器技術,或稱浸沒式液冷服務器技術。這需要找到一種具有電磁兼容性、電氣兼容性、物理兼容性、化學兼容性等性能均十分良好的液體直接與發熱部件接觸的技術。中科曙光自2010年開始研究液冷服務器技術,對液冷服務器未來的發展方向,與美國3M公司可謂是“英雄所見略同”,在許多技術方面做出了創新,形成了新的技術體系。
  
  液冷服務器開創行業降耗新標桿
  
  曙光一直致力于高效制冷技術的研究工作,并不斷應用到產品中去,惠及廣大曙光客戶。中科曙光CloudBASE?系列C1000/2000/3000/4000方案,均是針對風冷服務器的、采用氣流組織優化(包括池級、排級和機柜級)、溫濕控制解耦、氟泵自然冷卻等成熟技術的具體實施方案,根據目前這些方案在國內的運行數據來看,已經成功地將數據中心的PUE值從2.00降到1.60。
  
  目前最新的液冷服務器技術, 是中科曙光利用自身對服務器需求的深入了解以及服務器開發的技術實力所進行的創新的結果。從目前實驗室數據來看,使用液冷服務器的數據中心,配合高效的氟泵循環系統,可以去掉壓縮機、全年在自然冷卻工況下運行,從而可以輕易地將PUE值從1.60降到1.20。
  
  隨著代表著業界領先水平、 國內首款采用3M公司電子冷媒技術的直接浸沒式液冷服務器的發布,其高可用性、高密度、超低PUE等優點,勢必撼動業內對于數據中心節能降耗的技術認知。從成本分析方面看,雖然中科曙光的液冷服務器產品比風冷服務器產品的制造成本有所增加,但是配套的數據中心基礎設施的制造成本的下降則抵消了部分成本增量,使數據中心總體CapEX并未明顯改變。但是,節能導致的OpEX的大幅降低,則使數據中心的TCO顯著降低,這種優良的經濟性表現是驅動行業對這項革命性技術認知的動力。
  
  在中科曙光看來,服務器液冷技術勢必將帶來服務器物理形態的變革,同時帶來數據中心建設模式的變革,從而對信息化產業格局產生深刻的影響。

關鍵字:節能數據中心

本文摘自:比特網

x 行業詬病困擾數據中心降耗節能 掃一掃
分享本文到朋友圈
當前位置:數據中心行業動態 → 正文

行業詬病困擾數據中心降耗節能

責任編輯:editor03 |來源:企業網D1Net  2014-06-24 13:38:36 本文摘自:比特網

隨著移動數據、云計算和大數據業務的迅猛發展, 數據中心建設規模越來越大,數據中心擁有者對數據中心節能的訴求,也逐漸突顯出來。近年來,出現了許多數據中心節能新技術,但都沒有突破思維瓶頸, 一直孤立地關注數據中心基礎設施層面本身的技術創新,并未將服務器設施層面納入數據中心節能工程中, 統一地、系統地思考數據中心的節能問題,造成數據中心的設計PUE值難以突破1.60這個極限。
  
  行業詬病困擾數據中心降耗節能
  
  2000年前后的互聯網泡沫,給人類留下的技術遺產是服務器形態的革命以及數據中心建設理念的革命----由于服務器的規模化應用,機架化的服務器取代了塔式服務器; 同時引發了數據中心建設思路的革命----從機房環境到機柜微環境的變革、高架地板式數據中心成為數據中心的建設標準。
  
  在之后的十年中,數據中心市場逐漸進入了一個高速發展的時期。IT設備的機架化在節省了數據中心物理空間的同時,也提高了機柜的功率密度。數據中心的功率密度,逐漸從低密度向中密度發展,期間出現了許多諸如局部熱點等技術問題。遺憾的是,針對新出現的這些技術問題,行業內并沒有意識到這是一個更高功率密度的新時代到來的預兆, 沒有認真思考應對之道,而是不負責任地試圖使用傳統辦法解決新問題。其結果是,數據中心的能耗指標PUE值,雖然從最初的3.00逐漸降低到了2.00以下,但一直難以突破1.60。
  
  究其原因,是缺乏技術發展戰略上的行業集成思維。事實上,對數據中心能耗貢獻最大的設備或部件----CPU、內存、服務器散熱系統、數據中心空調系統、數據中心UPS系統,其相關行業均在獨自地研究和開發節能技術, 并且多數行業領域的技術創新潛力已經挖掘殆盡。如果不去改變技術戰略和思維方式,產生大的技術成就幾無可能。
  
  國內外一些行業領導者已經意識到這個問題,并開始采取了行動。目前來看,主要有兩個技術方向: 高溫風冷服務器配合數據中心新風直接自然冷卻技術,以及液冷服務器配合數據中心水系統或氟系統間接自然冷卻技術。 前者依靠提高服務器熱源品位和特殊氣候環境來實現節能,后者依靠降低傳熱過程的熱品位損失來實現節能。
  
  2013年Facebook對外界公開了其位于瑞典北部城鎮呂勒奧(Lule)的數據中心,采用的就是新風直接自然冷卻技術。呂勒奧位于波羅的海北岸,距離北極圈只有100公里之遙,當地的氣候因素是Facebook選擇在呂勒奧建立數據重要原因之一。據Facebook介紹,自1961年以來,呂勒奧的氣溫高于30度的時間不超過24小時,在該地區建立數據中心將節省一大筆散熱開支。但是,從國內各地氣候條件來看,南方地區溫度高、北方地區風沙大,類似于呂勒奧這樣數據中心的理想選址地點幾乎沒有;全球范圍來看,新風自然冷卻技術的應用場景也少之又少。
  
  而液冷服務器技術則很少受限,這是因為這種技術不需要空氣進入數據中心,甚至不需要空氣進入服務器。
  
  早在幾年之前,IBM等公司就開發出了以純水為工質的間接液冷型的服務器來取代風冷型服務器,來大幅改善PUE指標, 因為他們意識到空氣作為冷卻用的工質,遠非理想中的最佳材料;而水要比空氣的冷卻效率高1000倍數量級。所謂間接液冷,指的是液體并不接觸發熱部件,而是通過冷板、冷倉等將液體與發熱部件隔離開。
  
  而美國Intel和美國3M則走另一條路線, 采用特殊液體直接與發熱部件接觸進行換熱,即直接式液冷服務器技術,或稱浸沒式液冷服務器技術。這需要找到一種具有電磁兼容性、電氣兼容性、物理兼容性、化學兼容性等性能均十分良好的液體直接與發熱部件接觸的技術。中科曙光自2010年開始研究液冷服務器技術,對液冷服務器未來的發展方向,與美國3M公司可謂是“英雄所見略同”,在許多技術方面做出了創新,形成了新的技術體系。
  
  液冷服務器開創行業降耗新標桿
  
  曙光一直致力于高效制冷技術的研究工作,并不斷應用到產品中去,惠及廣大曙光客戶。中科曙光CloudBASE?系列C1000/2000/3000/4000方案,均是針對風冷服務器的、采用氣流組織優化(包括池級、排級和機柜級)、溫濕控制解耦、氟泵自然冷卻等成熟技術的具體實施方案,根據目前這些方案在國內的運行數據來看,已經成功地將數據中心的PUE值從2.00降到1.60。
  
  目前最新的液冷服務器技術, 是中科曙光利用自身對服務器需求的深入了解以及服務器開發的技術實力所進行的創新的結果。從目前實驗室數據來看,使用液冷服務器的數據中心,配合高效的氟泵循環系統,可以去掉壓縮機、全年在自然冷卻工況下運行,從而可以輕易地將PUE值從1.60降到1.20。
  
  隨著代表著業界領先水平、 國內首款采用3M公司電子冷媒技術的直接浸沒式液冷服務器的發布,其高可用性、高密度、超低PUE等優點,勢必撼動業內對于數據中心節能降耗的技術認知。從成本分析方面看,雖然中科曙光的液冷服務器產品比風冷服務器產品的制造成本有所增加,但是配套的數據中心基礎設施的制造成本的下降則抵消了部分成本增量,使數據中心總體CapEX并未明顯改變。但是,節能導致的OpEX的大幅降低,則使數據中心的TCO顯著降低,這種優良的經濟性表現是驅動行業對這項革命性技術認知的動力。
  
  在中科曙光看來,服務器液冷技術勢必將帶來服務器物理形態的變革,同時帶來數據中心建設模式的變革,從而對信息化產業格局產生深刻的影響。

關鍵字:節能數據中心

本文摘自:比特網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 毕节市| 天台县| 松桃| 泉州市| 翁牛特旗| 新竹县| 延庆县| 修水县| 衡水市| 开封市| 方山县| 尖扎县| 黔江区| 临江市| 马尔康县| 建阳市| 资源县| 大厂| 长岭县| 滨海县| 吉木萨尔县| 久治县| 石景山区| 卫辉市| 闸北区| 清河县| 栾城县| 延边| 峨边| 南澳县| 焦作市| 长治县| 乌鲁木齐县| 木里| 上饶县| 正宁县| 嘉善县| 新干县| 湖口县| 安庆市| 漳州市|