摘要:現如今,客戶們比以往任何時候對于服務供應商如何交付產品和服務都更為關注。他們期望獲得便捷、個性化、高速、高效、無縫、易用、真實和肯定的服務。并期望隨時隨地的進行互動——這意味著數字化和移動化技術將進一步發展。
IT與數據中心斷開連接的后果
在我們所描述的環境中,企業需要一個數據中心,可以:1)支持動態的工作負載;2)支持越來越高的密度;3)支持并行運行一系列密度的服務器。 在一定程度上,企業已經能夠在傳統數據中心內實現這些目標,但卻只能以高成本的冗余能力及效率低下的能源/水消耗為代價。
冗余的電力和空間容量(資本支出效率低下)
傳統數據中心以靜態密度進行配置。空間布局以及電源和冷卻系統設置為能夠支持每平方英尺的既定密度,并且改變占用空間可支持的密度需要重新配置布局,包括電源和冷卻系統設置。在很多情況下,傳統的數據中心可能有可用的地面和機架空間,但沒有剩余的電力或冷卻或者具備電力和制冷能力,但卻沒有剩余的空間。
因此,考慮到IT創新的快速增長和需求的指數增長,未來的空間、功耗和冷卻散熱的增長,傳統的數據中心運營商必須進行過度配置。這允許未來的垂直和/或水平的可擴展性,但這也意味著通常會造成數據中心很多年的時間未充分利用。這將導致顯著的資本成本低效率;未充分利用的數據中心的單位計算成本非常高。
大多數數據中心可以支持高密度的服務器,但確保不會產生過熱的唯一方法是將機架半填充或分開。這兩種方法都會造成容量能力的冗余,數據中心的效率顯著下降,并且是造成基礎設施利用率低下的主要因素。事實上,典型的企業基礎設施利用率是30-40%。
比如,一處占地面積333平方英尺的數據中心設置的電源和冷卻配置能夠支持每臺機架4.5千瓦——共計約50千瓦。現在客戶希望運行更高密度的服務器,每臺機架9千瓦。實現這一目標的唯一方法就是在不重新布局的情況下(基本上是重新開始),將每臺機架填滿一半,或者將機架分開,以便在333平方英尺的占地面積內保持總密度達到50千瓦。
通過擴大占地面積來提升密度也會導致需要進行昂貴的整合工作。用戶不得不對他們的數據中心占用空間進行“碎片整理”——這是在以靜態密度配置的數據中心所面臨的一個重大挑戰。
提高基礎設施的利用率能夠帶來多大的區別呢?一個很大的區別——甚至比提高能源效率還要大。例如,如果我們提高能源效率,使PUE從1.5下降到1.15,則這將節省24%的成本。而如果我們將基礎設施利用率從30%(典型的企業級)提高到85%(典型的超大規模級別),則可以將成本降低65%。要清楚的是,能源效率也是至關重要的,這里的重點不是唯一重要的指標。
能源和水(OpEx)利用的低效率
由于傳統的數據中心無法支持動態的工作負載,因此數據中心運營商們必須像IT負載一直處于高峰一樣來配置并運行數據中心基礎設施。
這使得數據中心可以支持高峰期的工作負載,但這也意味著數據中心在一些時候(如果不是大部分時間的話)會存在嚴重的利用不足。這就會導致由于傳統的數據中心基礎設施不能在低負載下有效運行,因此造成能源和水資源的利用效率低下(由此產生對成本的影響)。
數據中心對于需求的響應需要具有適應性——高密度、混合密度和可變密度
要避免IT與數據中心之間的脫節,數據中心必須變得更加具有適應性。在沒有過度配置的情況下,支持更高密度和越來越動態的計算負載,即使在數據中心功耗劇烈波動的時代,可擴展性也不會過度配置,這要求數據中心必須為IT部門提供IT所必需的:自適應。
如何支持高密度,混合密度和可變密度
在這個被軟件所吞噬的世界里,工作負載每天都在變化,而且商業模式也變得非常動態,故而企業需要能夠處理動態功耗和動態密度的數據中心。因此,從冷卻角度和電氣的角度來看,企業所需要做的是確保其傳統的靜態系統是動態的,能夠處理不同的密度以及可變的能耗(傳統的數據中心基礎設施是靜態的,不同于高度可變的工作負載)。
支持高密度,可變密度或混合密度指的是數據中心的冷卻系統具備處理高密度服務器所產生的所有額外熱量的能力。為了創建一處能夠在1 kW到50 kW之間動態運行的數據中心,企業需要從根本上重新思考數據中心。由此催生了一些新的方法的誕生。數據中心的散熱問題實際上是一個將熱量移出數據中心的問題。
相關服務供應商的排熱系統能夠響應數據的變化,支持同一排機架內的高密度,混合密度和可變密度。其冷卻系統可以處理比典型的系統更多的散熱,因為其系統不是強迫冷空氣進入數據處理大廳,而是從散熱器與服務器機架緊密結合的地方去除熱量。進而解決了高密度,可變密度和混合密度的挑戰,無需專業的、昂貴又高風險額冷卻基礎設施(需要由企業的設備供水)。
某些供應商的冷卻平臺在10%至100%的負載下具有一致的能量消耗,并能夠對高度可變的空氣要求作出響應。系統是實時動態的,基于服務器負載上下起伏。變速風機和變頻驅動(VFD)泵允許流量響應不斷變化的負載。這類系統在服務器匝道升級時與服務器的空氣流量相匹配,幫助服務器風扇降到最低水平。這降低了臨界負載,并在規模上節省了大量的功率,減少了對于空氣流量的要求。
此外,相關的供應商一直在開發和部署基礎技術,使數據中心能夠動態調整和防止頻率的不平衡。
通過設計的冷卻設施可以輕松實現垂直調節密度。以333平方英尺的數據中心為例,最初配置為支持每臺機架4.5千瓦,客戶希望運行更高密度的服務器:每臺機架9千瓦。 額外的電源可以通過機架頂部的母線槽安裝在機架層面。
同樣,可以在機架級別安裝額外的緊湊型散熱器,其標稱制冷量為30 kW。如有必要的話,額定制冷量分配單元(CDU)可以容易地安裝在數據中心的局部區域,以實現垂直可擴展性。現在相同的333平方英尺的數據中心空間內可以支持每臺機架9千瓦,而無需重新配置機架布局。
這種靈活性尤其重要,因為大多數主機托管合同和折舊計劃都在10 - 15年的范圍內,而硬件更新周期則在3 - 5年的范圍內。
一種新的散熱方法
這并不是說密度必須實現統一。許多能夠使得企業數據中心的冷卻基礎設施動態化的技術創新也能夠使其在任何密度下都確保高效。由于散熱片與機架緊密結合,企業客戶可以讓一臺機架保持50千瓦的功率運行,同時另一臺1千瓦功率運行的機架就在該機架旁邊,兩者同樣高效,沒有熱點。
數據中心的配置完全取決于客戶的需求:將10個裝滿高密度機架的容器打包,系統可以對其提供支持;配置一臺存儲服務器,容量為3kW,系統的運行效率也能夠很高。讓一臺50kW的計算機機箱與3kW的存儲機架并排,或者運行一臺50kW的機架,有時候是3kW,該系統同樣可靠和高效。
除了預先調試,預安裝和大規模測試的前端基礎架構之外,數據中心組件都是模塊化的和工廠組裝的,這樣容量的增加是非常快速且很容易添加的。
需要說明的是,自適應數據中心的價值不在于使數據中心層更像軟件層。核心的經濟驅動因素在于:30-40%的利用率是資本和能源的重大浪費,其會阻礙企業對于不斷變化的客戶需求的靈活應對。
總結
如果您企業正在考慮托管數據中心,并且供應商表示他們可以支持高密度,混合密度和可變密度,那么請務必跟進這一問題,并詳細咨詢。