數據中心快速增長的高密度帶來了數據中心能耗的急劇增加,這需要我們對數據中心制冷技術不斷創新,提升制冷能效。
針對數據中心的冷卻問題,其實有多種方案來應對計算性能和密度不斷增長帶來的挑戰。此前根據每個斯坦福大學的一份研究報告,數據中心消耗的電能幾乎為整個電能的2%。而IBM的數據則顯示,IT帶來的碳排放占了全球整個碳排放量的2%。無論是電能的消耗還是碳排放量都在過去幾年來不斷增長的態勢下也在大肆增加。越來越強的計算性能在滿足業務需求的他同時,卻也給數據中心的能耗帶來重大挑戰。
現代數據中心機柜中安裝的IT設備越來越多,這不僅意味著機柜用電量大大增加,還意味著后面的所有輔助設施的容量和用電量也相應增加,包括冷卻系統、配電設備、UPS和發電機等都會按比例增加。
數據中心能效提高的機會
日益小巧、能效日益提高的芯片架構也帶來了更高的計算性能。目前服務器機柜能耗一般為2KW至5KW之間。而對于高端比如Nvidia的Grid則需要耗費45KW。在這些超高密度環境下的數據中心,傳統的風冷制冷技術將不再是唯一選擇,甚至都不是首要選擇。
一、液冷技術
為了解決高熱密度機柜中的熱點問題,一些數據中心已經開始轉向到液體冷卻了。最常用的液體冷卻技術稱為緊耦合制冷,需要用管道將冷凍液(通常為水或乙二醇)輸送到高架地板之上或者直接把冷凍液輸送到機柜內部,然后通過風和冷凍液之間的熱交換達到給機柜內部降溫的目的。
利用改進的流體和熱動力學可對傳統液體冷卻技術進行革新,使水冷卻更高效。最知名的例子有Flometrics Chilldyne酷弗洛負壓液體冷卻系統,該系統以支持電信和信息技術測試被部署在加利福尼亞州的加州大學理工學院。
負壓液體冷卻系統
基于機架直接連接芯片散熱的方式,吸取了來自美國NASA對火箭發動機和固定熱插拔連接器進行冷卻的靈感,也就是允許IT部門通過負液壓系統隔離單個服務器。加州大學表示這種液冷方式,可以在傳統的液冷方式基礎上降低25%至35%的能耗。
浸入在礦物油中的服務器
關于液冷技術,其實早在之前英特爾也發布設計出一種采用礦物油進行降溫的方法。
浸入在礦物油中的服務器主板
早在兩年前,在德克薩斯州奧斯汀市一家名為Green Revolution Cooling(綠色革命冷卻技術公司)的公司著手測試該技術的可行性。測試結果表明,一旦移除計算機上的風扇和硬盤,這種采用油來實現降溫的方式會顯得非常具有高效。這種采用礦物油冷卻系統只需要花費2%-3%的冷卻功耗——遠比傳統服務器的功耗少得多(50%-60%)。
二、“將計就計”熱量轉換
和剛才介紹的液冷冷卻方式不同,這里采用“將計就計”的方法,將想方設法排除熱量轉變為利用服務器產生的熱量,從而實現充分利用廢棄能源的節能目的。
在2010年,IBM提出一種“熱交換系統”的概念,通過吸收數據中心熱量的熱水被輸送到其他建筑物的地板并對室內進行供暖。供暖的熱水經過不斷循環冷卻再流入到數據中心,并通過獲得數據中心排放出來的熱量再次進行供暖,如此反復周而復始。
三、因地制宜
因地制宜說得是利用數據中心的選址來設計數據中心的制冷散熱方案。
通常來說,數據中心的理想地點并不僅僅有著良好的電力網絡、充足的空間和優惠的稅收補貼,數據中心本身周圍的環境條件也是衡量數據中心選址是否理想的關鍵。以最大限度地提高冷卻的努力。在這方面最具代表性的當屬谷歌和Facebook打造的數據中心。
谷歌在數據中心選址上非常謹慎。以谷歌位于哥倫比亞河畔的Dalles數據中心為例,谷歌喜歡將數據中心建設在河流旁邊開闊的谷地。而且,可以看出其典型的建筑風格是大開間低層廠房結構,多為結構較為合理的長條矩形狀。大型架空冷卻塔和底下的儲冷罐位于建筑邊上,附近是兩個為數據中心配套的變配電站。直接采用附近水電站便宜的綠色充足水電來給數據中心供電,空氣質量很好。
位于芬蘭 哈米納的谷歌數據中心(鄰近波羅的海)
另外谷歌在北歐國家芬蘭的一個哈米納(Hamia)地區修建一座數據服務中心。該地理環境下能夠為數據中心提供兩大優勢——也就是寒冷的氣溫和極低的電費。該數據中心選址在廢棄的造紙廠,鄰近波羅的海,可以充分利用自然冷氣對數據中心進行降溫。更為重要的是,谷歌的這個數據中心其隧道引用的海水冷卻,并未對其溫度有太高影響。也就是說,對數據中心進行冷卻的海水溫度從引入到流入到大海,其溫度相差不大,從而減少了對環境的影響。
谷歌數據中心利用隧道將海水引入數據中心進行散熱
Facebook的第一個歐洲數據中心建在瑞典,也就是谷歌所在國芬蘭的東北方的鄰國。這里靠近北極圈,可以更好地利用自然冷卻資源——寒冷空氣即可對數據中心提供全年的自然冷卻。
四、數據中心“散熱器”
和前面介紹的基本都是通過風冷、水冷等介質對數據中心進行降溫制冷。而這里,我們還介紹另外一種更為獨特的解決方案——將數據中心視作大型“散熱器”。
這項奇思妙想來自IBM與美國專利商標局提出的專利申請,將整個數據中心所在的建筑物視為巨大的散熱片。水冷系統安裝在數據中心的墻壁上,并通過利用“導熱材料制成的波紋板”從而更快地吸收管道中的熱量并提高散熱效率。想象下,其實就有點類似傳統散熱器的功能,利用“自然冷卻”的效果來實現移動數據中心的散熱制冷。
數據中心“散熱器”工作原理示意圖
五、高溫環境也胸有成竹
一直以來,人們都在議論美國采暖,制冷和空調工程師協會(ASHRAE)所描述的冷卻要求過于保守。在2008年間,服務器環境中的散熱要求推薦為65至81華氏度。
英特爾現場模擬演示高溫數據中心負載應用
而目前數據中心的溫度通常為68至70華氏度。根據現有大量的研究數據表明,數據中心完全可以支持更高的溫度,也就是說可以在更高溫度環境下運行,甚至有些設備還能承受高達122華氏度的高溫。據此,數據中心冷卻的方式可以擺脫基于特定位置的特定溫度。目前市面上的很多服務器也都采用了支持高溫環境的設計,可以在95華氏度的環境下正常運行。
編后語:
而在目前步入的云計算時代來說,數據中心在其中扮演的功能與角色也愈發重要了。日益嚴重的數據中心能耗問題,也將會基于這五大方面展開不斷創新,包括液冷、熱量轉換、自然冷卻、散熱器設計和高溫環境。這五大有利于數據中心 冷卻的方案領域或各自或結合發揮作用。
但我們普遍認為,在可預見的時期內數據中心不會遇到高功率密度問題,每個機架的平均功率密度仍然在機房空調系統可以承受的范圍內。只是隨著能耗的增加會給運營商帶來成本壓力,但這種壓力會通過傳導給市場帶來技術和方案的創新。
而對于未來數據中心制冷趨勢來說,除了高性能計算中心和其他基于互聯網數據中心(IDC),大部分數據中心將會遷往低價更便宜、電力成本更低的地方,充分利用市場“無形之手”調節并結合制冷技術,不斷優化并降低數據中心運維成本,提高能效。