精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

曙光:互聯網行業綠色數據中心發展最快

責任編輯:王文龍

2013-05-07 10:43:43

摘自:賽迪網

技術方面,據了解曙光正在研究的全年自然冷卻技術配合液冷服務器技術,則可提供1.2以下的PUE,目前仍處于實驗室階段,預計不久將進入產品化階段。

2012年,全球的數據中心投資增長了22%,從2011年的約860億美元增長到1050億美元。中國目前有將近54萬個數據中心在運營,并正以每年18%的復合增長率高速增長,與數據中心相關的基礎設施建設市場也將達到千億規模。

伴隨這一快速發展的行業趨勢、如何優化數據中心的基礎設施、如何在數據中心實現真正的綠色節能,如何進一步降低能耗、提升數據中心運營效率?這些問題倍受關注。

曙光高性能產品總監 戴榮博士

曙光高性能產品總監戴榮博士在接受賽迪網采訪的時候表示:用戶對數據中心節能的重視程度,的確在逐年提高,尤其是在云計算開始興起之后。隨著IT設備的成本下降,數據中心的TCO中,以電費為主的運營費用所占的比例,在不斷上升。所以,我認為綠色數據中心,將是以云計算業務為代表的第四代數據中心的最主要的特點之一;數據中心綠色化,將是數據中心技術發展的主要工作。

高效制冷技術更值得關注

談到業界最受人關注的PUE值,戴博士認為,目前這個階段,影響PUE的最主要的因素是制冷系統的能耗。曙光一直致力于高效制冷技術的研究工作,并不斷地應用到曙光的客戶中去。制冷系統的節能技術的發展,短期來看,主要是氣流組織優化、溫濕解耦等;長期來看,則是制冷系統的革命(如自然冷卻、甚至“去壓縮機化”)以及服務器冷卻技術的革命(如高溫服務器、液冷服務器)。

曙光現有的CloudBASE系列基礎設施一體化解決方案,采用成熟的機柜排級或機柜池級的氣流組織優化方式,配合溫濕解耦技術以及多聯機技術,可以輕易地使pPUE值(僅考慮制冷系統功耗的PUE值)降低到1.6以下。

技術方面,據了解曙光正在研究的全年自然冷卻技術配合液冷服務器技術,則可提供1.2以下的PUE,目前仍處于實驗室階段,預計不久將進入產品化階段。

刀片服務器對數據中心散熱要求更高

近兩年給人感覺刀片服務器逐漸“火”了起來,其實刀片在某些數據中心里也占據著不可替代的地位。戴博士認為,相比傳統機架式服務器,刀片式服務器由于其高密度、高集成度、易擴展、易維護等特點,在數據中心得到了廣泛的應用。但如果從高能效比的角度來看,刀片未必是最佳選擇。刀片通常都采用兩邊對插形式,中間有個大面積的高速背板,對于風道影響很大,不利于散熱,因此對數據中心的制冷提出了更高的要求。

未來高能效比數據中心曙光認為將采用整機柜服務器。整機柜服務器的特點是以一個機柜為單位,共享供電、散熱、管理等模塊,比傳統服務器節能至少10%以上,而且更易部署和維護,將會成為大型數據中心的主流。

同樣采用高密度設計的GPU服務器也開始贏得密集型計算用戶的青睞。戴榮表示,GPU的主要優勢是高性能功耗比,GPU上的應用也越來越通用,最近幾年已經有越來越多的廠商支持GPU,以及其它異構加速設備。由于能耗和空間的限制,未來混合計算肯定是一種趨勢。高計算密度也會帶來更高的功率密度,單機柜功率的提高會使整個數據中心的制冷模式發生革命性的變化,從傳統的地板下送風方式變成機柜級、機柜排級、機柜池級制冷方式,從而獲得更高的能效比。

超低功耗服務器未來會有一定市場份額

隨著服務器多元化的發展,目前我們已經看到百度的ARM服務器以及淘寶的ATOM服務器,那么曙光對超低功耗服務器怎么看?未來市場前景如何呢?

據了解,目前超低功耗服務器瞄準的是網絡密集型或者存儲密集型應用,而不是計算密集型應用,這是服務器市場細分的必然結果,未來會有一定的市場份額。超低功耗服務器可以降低數據中心的總體能耗,但是不能解決能效比的問題。

綠色數據中心能夠給云計算提供有力支撐

談到云計算,曙光高性能產品總監戴榮博士表示,云計算的特點是大規模、低成本,所以對數據中心的TCO提出了苛刻的要求。除了降低PUE之外,降低TCO的另一個方向是降低機房的面積。傳統的數據中心建設過程中,由于制冷系統中存在的送風瓶頸,導致設計功率密度無法提高,例如早期的第三代數據中心通常采用每機柜3kW的功率密度設計值,機柜內部大量空間處于閑置狀態;若將功率密度提高到每機柜10kW,則主機房的面積則可降低到1/3,同時機柜方面的投資也相應減少。

另外,合適的功率密度,還可以提高送風利用率,從而降低空調系統功耗。所以,高密度的數據中心設計技術,將對云計算提供有力的支持。當然,在實際應用中,功率密度的選取,還與數據中心的機房環境、空調設備及氣流組織形式有關,并非越高越好。

缺乏標準阻礙了國內自然冷卻發展

現在國外出現了很多采用自然冷卻方式散熱的數據中心,但在國內卻不多見。國內和國外在數據中心發展方面還有哪些差距?戴博士在接受本站采訪時候給出了答案。他認為,自然冷卻技術,充分利用地理性和季節性的室外低溫環境作為冷源,通過建立特殊熱量傳遞通道,將機房內的熱量從室內轉移到室外,而無需壓縮制冷循環參與,僅靠風機或泵驅動,所以PUE能夠顯著降低。

自然冷卻技術主要有兩種形式:新風直接式自然冷卻和間接換熱式自然冷卻,這兩種技術在國外都有成熟的應用。由于國內具有溫度低、而且濕度和潔凈度均適宜的地區極少,所以只能采用第二種技術,從技術靈活性上,就少了50%的選擇。

自然冷卻的基本要求,是室外低溫熱源的溫度足夠低、室內高溫熱源的溫度足夠高,而提高室內高溫熱源,則需要改變用戶理念、以及進行冷卻系統和服務器的革命。以目前的空調技術,通過通道封閉等技術,可以提高熱通道的溫度到35oC,從而使自然冷卻的使用時間提高20%-30%,但并不是所有用戶都敢于做這樣的設置。

同時,行業內尚未建立成熟的能耗評估標準和體系,也是國內自然冷卻技術推廣緩慢的一個原因。由于缺乏數據支持,用戶難以對一個節能改造方案作出投資回報率的精確計算,或者計算過程的說服力不足,從而給決策者對自然冷卻技術或其它節能改造技術缺乏信心。

互聯網行業數據中心發展最快

目前國內發展最快的是互聯網數據中心。面向云計算時代,設備的集中是個必然的趨勢,因此數據中心的數量和規模都在不斷增長。隨之而來的,用戶對數據中心的PUE越來越關注,各種節能技術,比如熱管、液冷、氟泵等紛紛應用于數據中心。傳統數據中心的改造也成為一個熱點。

空調技術和UPS技術都將面臨著重大突破

在數據中心綠色化的不同發展階段,數據中心內最耗能的設備種類有所不同。例如,在五年之前,許多數據中心的PUE高達3.0以上,其中的空調系統的耗電量甚至高于服務器本身;而現在,數據中心的PUE普遍已經低于2.0。但目前來看,最耗能的設備或部件,仍主要是CPU、內存、空調系統、UPS系統。開發低功耗CPU和內存,是服務器行業的工作任務;而數據中心基礎設施行業的任務,仍像10年前一樣,盯在空調系統和UPS系統上。經過今10年的醞釀,空調技術和UPS技術都將面臨著重大突破,其中空調系統的革命可能來的更早些。

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 资中县| 大城县| 洱源县| 郸城县| 岳普湖县| 三江| 土默特右旗| 林西县| 乾安县| 通化市| 合肥市| 睢宁县| 屏东市| 纳雍县| 龙泉市| 沙雅县| 桂林市| 赤城县| 宁波市| 宁远县| 上栗县| 竹溪县| 武宣县| 博湖县| 五大连池市| 始兴县| 丹棱县| 应城市| 天全县| 郴州市| 故城县| 子长县| 日照市| 抚宁县| 湘潭市| 屏东市| 屏东市| 海淀区| 石家庄市| 济宁市| 涟水县|