隨著新基建時代的來臨,云計算已然大行其道。阿里,騰訊等巨頭紛紛開始布局更大規模的新一代云計算數據中心。這將是一種基于高密度,大容量,且前所未見的網絡應用集合體。和傳統數據中心相比,其對于網絡帶寬、端口密度、安全防護以及運維管理等諸多領域都提出了更高的要求。比如,對于新一代云計算數據中心而言,傳統的制冷方式將限制其計算力的發揮,而液冷將走向前臺;再比如,從流量的角度來說,傳統數據中心屬于簡單的匯聚型流量。但現在,流量將呈現不定向的突發性,傳統城域網交換機的性能將變得捉襟見肘。那么歸根到底來說,和現有數據中心相比,新一代云計算數據中心將呈現哪些新趨勢呢?
統一交換將成為必然,萬兆端口即將翻倍
網絡的建設將是新一代數據中心最直觀的改變。首先,計算網絡,存儲網絡和業務網絡將同時存在于新一代云計算數據中心當中。其次,傳統的建網方式將使得其建設成本如火箭般上升,同時技術異構的網絡也無法實現統一的虛擬化。對于云計算價值的發揮將產生嚴重的掣肘作用。在這樣的背景下,Ethernet的統一交換網將成為新一代云計算數據中心組網的首選。
既然高密度將是新一代云計算數據中心的趨勢,那服務器數量未來必然出現暴增。君不見阿里,騰訊這些巨頭的數據中心動輒數萬臺服務器規模皆尤嫌不足。同時,單臺服務器核心數量的增長,必然帶動其帶寬消耗同步增長。這對于目前的網卡而言,將產生極大壓力。
假如某個數據中心擁有2萬臺服務器,收斂比為1:4。那么其基本的萬兆匯聚端口數量將至少需要500個,如果考慮到安全防護以及IP存儲等設備,那么萬兆端口的數量至少還得再增加1.5倍。
40G/100G接口將迎來高光時刻
在未來,隨著5G和邊緣計算的落地,數據中心的數據處理能力將是一個天文數字。在這樣的背景下,作為數據交互的關鍵節點,出口帶寬的壓力也將驟然增大。目前,大部分數據中心的出口帶寬都已經達到了100G以上,并且每年還在以超過100%的速度激增。傳統的10G接口顯然無法滿足這樣的需求。那么,40G/100G接口的普及將迎來高光時刻。
流量特征更為復雜,需部署專門的交換機
由于服務器資源動態調配的特性,在云計算環境下,流量的特征將比之前更為復雜,也更加難以預測。由此帶來的突發性也更為明顯。所以未來的網絡,必然要求部署更為專業的交換機。和傳統交換機相比,這些交換機至少應該具備以下特點:
1.完全無阻塞交換網
數據中心級交換機采用CLOS交換網,這是一種完全無阻塞交換架構,從而保證在任何流量特征的環境下,交換網都是可以實現無阻塞交換。
2.分布式大容量緩存的數據中心級交換機將成為趨勢
緩存的價值在傳統PC上早已為人們所熟知。在云計算時代,交換機之間的流量交互將無比巨大。甚至多端口同時向一端口轉發的幾率也大為增加,突發的流量會給端口造成巨大壓力。傳統的城域網交換機在出口端的小容量緩存,每板一般不超過64兆。一旦出現流量洪峰,緩存的堵塞丟包將不可避免。一旦如此,勢必形成骨牌效應,從而導致應用層的數據重傳并引起更為嚴重的網絡堵塞。
數據中心級交換機采用的分布式大緩存架構,其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,再復雜的流量模型,端口緩存時間最大均可達到200mS以上。只有這樣,才能滿足未來5G時代,大型云計算數據中心的需求。
“天下賦,半三番”的能耗現狀將被液冷終結
既然計算力將加速上升,那么數據中心的能耗自然也會水漲船高。信通院云大所的何寶宏博士曾經說過,“再大的風也吹不冷滾燙的‘芯’”。的確,對于未來大型云計算數據中心恐怖的功耗而言,風冷的瓶頸將限制數據中心計算力的提升。同時,由此帶來的耗電量也將讓一線城市難堪重負。
目前IT設備功耗占到數據中心總體能耗的比例為31%左右,而制冷設備的能耗卻已經超過了40%。也就是說,數據中心的能耗大部分都消耗在了“降溫”領域。這樣的現狀頗有幾分“天下賦,半三番”的感覺。
在這樣的背景下,液冷技術將走向前臺。經過數年的發展,今天的液冷技術已經相對成熟。目前,全球各大企業已經在液冷領域展開了諸多嘗試,市場化產品層出不窮。何寶宏博士認為,“實際應用顯示,浸沒式液冷的優勢非常明顯,可以將單體計算密度提升10倍以上,同時IT設備占地面積減少75%以上,即縮減為原來的四分之一。”
目前浸沒式液冷技術上已經比較成熟了,只是生態系統還不夠完善。隨著大型云計算數據中心的發展步入快車道,這種情況勢必改變。生態建立以后價格必將下跌,而趨勢也將隨之成立。