這幾年,在IT技術與趨勢的急劇變化下,數據中心也隨之面臨許多挑戰。高密度數據中心已經成為企業必須面對的課題。當數據中心單一機柜機架功率密度每年不斷增長已成一股趨勢,企業勢必得找到更有效的方法來面對電力、冷卻與空間的挑戰。
隨著人們對服務的要求愈益嚴苛,企業必須想方設法滿足消費者7×24小時可用性的期望。服務器數量不斷增長,在此同時,更多的運算能力與資源也被收納在愈來愈小的外殼中,從微型服務器(Small Form Factor,SFF)、刀鋒服務器(Blade Server)到超大規模(Hyperscale)服務器以及用來實現更彈性框架的組合式基礎架構(Composable Infrastructure),都是因應此需求發展而誕生的解決方案。
更高密度的服務器意味著單臺服務器需要更高的功耗,隨著全球對能源消耗的日趨關注,企業也開始認真看待能源效率議題以及環境責任。虛擬化技術為企業帶來解決方案,讓單臺服務器得以更多的工作負載,物盡其用。與此同時,全球云端化的浪潮也開始發酵,現階段,許多企業早已將云端優先(Cloud first)視為戰略之一,愈來愈多的IT預算投入在與"云端"相關的IT基礎架構以及軟件之中,部份企業組織或是IT供貨商更是以"Cloud only"作為主要的策略。當服務器被密集置于云端數據中心中,勢必將給數據中心帶來更高的運維挑戰。
容器(Container)技術發展愈來愈成熟,未來在單一服務器中,通過這項被稱為輕量級虛擬化技術的協助,將可望能運行更多的應用程序;移動化與社群平臺發展后,快速激增的數據需要大量的運算力來加以分析萃取數據金礦,物聯網(Internet of Things,IoT)還在持續發展,未來通過傳感器所收集數據,最終將導向后端的數據中心,以便進行巨量數據分析…。這些變化也讓數據中心趨向了高密度發展,隨著數據中心設備密度快速增長,以傳統思維建構的機房卻已不敷使用。
高密度的潛在問題
根據Colocation America調查,2008年數據中心單一機柜機架功率密度約莫在6kW左右,到了2016年已然達到了12kW,預估到了2020年,數據中心單一機柜機架功率密度將有可能達到16.5 kW.事實上,在某些改造案例中,例如Intel將兩座芯片廠改造成節能高密度數據中心,單一機柜機架功率密度更是高達43 kW。
當數據中心單一機柜機架功率密度每年不斷增長已成一股趨勢,企業勢必得找到更有效的方法來面對各式各樣迎面而來的挑戰。舉例而言,高密度實現了更小空間的使用密度,但相對的,系統故障的反應時間將大幅地被縮短,一旦遇到電源故障,大量由設備制造的"熱"將無法被帶走,將導致服務器中止運轉。
日漸提升的功率密度也遠遠超過大部分舊型設施的處理能力。早些年,數據中心可見到每機柜6kW的設計,但是面對15kW以上的高密度機柜,顯然不符所需。而企業使用云端運算或巨量數據分析這類需要大量資源的技術時,也會面臨可用與所需容量的差距擴大問題,因為以往在設計數據中心的冷卻空調時,會以假設IT的工作負載是平均且分散的情況,但實際的運行的環境卻不是如此,尤其在某些高密度機柜中,企業將發現制冷量遠遠不足。
數據中心原先所設計的備援機制也可能因此而消失,原本以N+1設計的不間斷電源系統(UPS)與冷卻空調,因為容量不足而被迫全面啟用運轉,進而喪失了備援的功能。此外,部署虛擬化方案后,IT人員可以動態地遷移虛擬機,但是數據中心的負載也因此而跟著轉變,熱點位置變得難以捉摸,電力需求也會跟著變動,而導致不必要的停機。
模塊化興起提供更高靈活性
顯然地,高密度數據中心仍存有許多潛在問題。數據中心管理人員將面臨更大的壓力,除了維護日益密集的運算環境,并且改善可用性之外,同時還得降低成本,提高效率。所幸,業界專家們正在將模塊化的概念融入到他們為數據中心所設計的設備與產品中,以便為數據中心帶來更靈活的彈性,并且為未來的各種工作負載做好準備。
現階段,主要的模塊化概念會應用在空間與設施的設計之中。空間模塊化指的是從IT基礎設備、機柜以及提供IT設備運行的設施,都是由模塊構成,彼此之間具有相依與關聯性。在實務上,多半還是會依照企業既有的數據中心空間,在評估現有服務對容量的需求以及未來的擴充考慮后,進而區隔出小空間,并且將其視為模塊。而設施的模塊化,指的是在基礎設施,包含電力系統(不間斷電源系統UPS、配電柜)、機柜式空調、冷卻器、機架、冷熱信道密閉系統等等,實行模塊化設計。
"IT技術發展日新月異,基礎架構正在朝向微服務(Microservice)架構發展。簡單來看,微服務架構就是利用模塊化的方式組合出復雜的大型應用程序,事實上,在多年前,數據中心基礎設施早就已經運用模塊化的優點,開發出模塊化方案,以提供更高的靈活性與擴充彈性,協助企業因應擴充需求,并且克服電力、冷卻空調不足以及空間上的挑戰。"臺達關鍵基礎架構事業部 (MCIS) 總經理蔡文蔭如此說。
UPS高效模塊化 自我診斷機制減少斷電風險
根據一項調查,造成數據中心停電的原因,有近五成的受訪者認為主因是UPS設備故障所引起,足以顯見UPS在維系數據中心的重要性。尤其數據中心高密度化后,更換老舊的UPS系統也是一項必要的工作,效率是其中的考慮原因之一。十年前所設計的UPS系統,在以40%利用率運作及服務雙電源輸入服務器時,通常效率在85%以下,現今的UPS系統運作效率更為優異。以臺達的解決方案為例,在20%的負載情況下,DPH 500kVA 系列 UPS的AC-AC可以達到95%左右,最高效率可以達到96.5%,節省了明顯的能源成本。
另一項考慮則是空間的有效運用率。一般而言,數據中心都會規劃電力室以設置與電力相關之設施,但是電力室的土地面積也有其極限,當數據中心朝向高密度發展,備援電力也需要跟著增加,但電力室空間有限,這時企業就可以置換單機高容量的UPS系統,例如臺達針對大型數據中心推出的Modulon DPH 500 kVA 模塊化 UPS ,僅占用19英寸機柜的空間,提供目前業界最高的功率密度,并行擴展也可以配置多達8個單元,提供4MVA的最大功率容量。
由于具有自我診斷與老化偵測機制,能偵測電池、風扇、IGBT模塊、DC電容與AC電容,預防性維護減少故障斷電的風險,保護客戶的設備投資。
對于企業而言,模塊化UPS的另一項優勢,便在于電源模塊采用即插即用設計,只須要在適當的時間投入適量的投資成本,就能進行單一系統的垂直整合和水平并機整合的容量擴充,企業可依據初期容量需求及未來營運拓展性,彈性采購UPS,進而降低投資成本,讓效益優化。
機柜式空調 臨近熱點降低耗損
隨著服務器與IT相關設備的密度愈來愈高,對設施的要求也愈來愈嚴苛。除了更高供電密度之外,散熱也成為一項難題,眾所周知,數據中心的冷卻設計均假設IT的工作負載是平均且分散的情況,但在真實的企業環境中,卻可能因為虛擬機的動態遷移或是IT設備部署不當,而產生熱源分布不均勻的現象。
顯然地,制冷量不足是高密度數據中心普遍會面臨的挑戰,機柜式精密空調的優勢便在于臨近高密度機柜,不同于房間級精密空調送出的冷氣,在高架地板輸送的過程中產生耗損,機柜式精密空調可就近提供足夠的制冷力,以消除熱點,加上配有高節能EC風扇以及變頻流量控制,更可達到節能目的。
機柜式空調同樣也有模塊化設計,以機柜式精密空調系列冰水型29kW / 43kW為例,除了內置雙電源供應器,大幅提升系統的電力可靠度與保護;可支持熱插入的電源供應器與風扇,大幅縮短維修所需時間;多段變速風扇設計,可依據實際工作負載調整轉速,減少離峰期間的電力損耗之外,也將模塊化概念運用在冷卻裝置上,機柜式精密空調系列冰水型29kW / 43kW可隨需求增加冷卻裝置,并將信號集中管理。
案例研究:中密度和高密度區共存于數據中心
根據AFCOM的數據中心密度分類,數據中心經理人協會認為,每個機柜在4kW以下,中密度為5kW-8kW,高密度為9kW-15kW,超高密度為16kW以上。不同的數據中心可能面臨不同的機柜功率密度挑戰。在一些數據中心,甚至可能會有不同密度的機柜組合,但使用相同的電源和冷卻系統設計概念。臺灣一家領先的IC設計公司計劃在其總部建立一個新的數據中心,因為他們需要整合現有的IT設備以及相關的網絡和操作環境。根據現場檢查,該企業數據中心擁有多達80個中密度和超高密度機柜,超高密度機柜達25kW.
臺達建議,當企業需要低密度和高密度/超高密度機柜設計滿足不同的應用需求時,應該將數據中心空間劃分為高密度機柜區域和超高密度機柜區域以優化其設計。設施規劃不僅應包括整體電力和冷卻需求,還應包括部署IT系統的空間使用情況。冷卻解決方案的使用有多種選擇。例如,4kW以下的機柜可能只需要房間級精密空調進行有效的散熱,而將機柜式精密空調設備配置為更高密度的機柜(從9kW到15kW)則可以獲得最佳散熱效果。
在這種情況下,臺達采用模塊化設計理念為客戶規劃超高密度區域,并將所有超高密度機柜放置在一個區域內。對于其高密度應用,客戶選擇臺達的RowCool 95kW,在600mm寬的機柜內具有業界最大的散熱能力。臺達還建議使用熱通道密封技術來防止冷熱空氣混合,并確保最佳的冷卻效率。
總結
科技發展日新月異,由第三平臺引領的技術轉型在未來還會持續發酵,新興的物聯網、人工智能、AR / VR,也融入云端、移動、社交媒體和巨量數據等技術,對于企業而言,數據中心的挑戰日益艱巨,高密度的發展勢必將會持續,而基礎設施也就成為企業推展創新應用服務的重要后盾。
對于數據中心管理人員而言,高密度數據中心的發展勢必將帶來更多維護與管理難題,在此同時數據中心的可用性也會受到挑戰,還得同時降低成本,提高效率。運用模塊化的設計與相關的設施,包含空間模塊化、熱通道封閉技術、冰水型機柜式空調以及更高效的UPS系統,將能為數據中心帶來高可靠度架構以及更靈活的部署彈性。