數據中心的發展趨勢
最近幾年來,互聯網的快速發展導致了諸如電子商務、社交媒體和互聯網金融服務等新興業務的出現。而隨著智能移動設備的使用的增長,人們的工作學習和個人日常生活都比以前任何時候更緊密地連接到互聯網,進而創造了對數據的巨大需求。而鑒于當前的這樣一個由我們自己每天所生成、處理和存儲的大量數據的“大數據”時代,使得越來越多的企業組織機構開始意識到,更有效地管理數據將是他們未來業務成功的關鍵要素。因此,數據中心也成為當下增長最快的市場之一。
根據最新的預測顯示,全球未來對于以太網光收發器的驅動力將主要來自大型數據中心,電信運營商和傳統企業的快速增長。而根據Dell’Oro集團根據2015年全球以太網服務器出貨量的預測,10GbE服務器將在2016年占據最大的市場份額,而25GbE服務器的市場份額將在2017年實現快速增長。
在過去,傳統企業的數據中心主要關注于數據存儲和準備災難恢復方面,但從未對實時的多用戶數據檢索和突發的大流量訪問的承載能力提出過多要求。然而,隨著大數據的出現,數據中心的操作運營正逐漸從數據存儲轉移到基于需求的實時數據分析和處理。企業和個人消費者越來越多地要求越來越多的實時數據訪問。許多中小型企業(SME)負擔不起通過自建的大型數據中心來支持這類大數據服務,故而他們的這些需求可以通過借助云計算來滿足。一些預測稱,未來企業網絡中云服務方面的支出將占到IT預算的高達三分之一到一半。
在云計算的快速增長的驅動下,大型數據中心正在飛躍發展。全球的許多互聯網巨頭目前都已經將云服務作為其未來的重要戰略。他們在全世界范圍內廣泛的尋找合適的地方建立巨型數據中心,希望抓住更大的全球云計算市場的份額。甚至盡管許多新興的互聯網巨頭在意識到云計算將會是整個網絡行業的未來的關鍵方面起步較晚,但他們也開始在國內外加大對于其數據中心的投資。
三級網絡架構與二級葉脊網絡架構
與傳統的、流量是由本地客戶端到服務器交互(南北走向)為主的企業數據中心相比,大型互聯網數據中心的網絡流量主要是由服務器到服務器的流量(東西走向),是云計算應用程序所必需的。這些數據中心的用戶數量巨大,他們有多樣化和分散的需求,他們需要不間斷的用戶體驗。互聯網數據中心需要更高的帶寬和更有效的網絡架構來處理來自大量用戶的尖峰業務需求,例如對于在線音樂、視頻、游戲和購物的需求。
目前,主流的三級樹型狀網絡架構是基于傳統的南北走向傳輸模型。當某臺服務器需要與不同網段的另一臺服務器通信時,必須通過接入層——匯聚層——核心層——匯聚層——接入層這樣的一個路徑。在具有數千臺服務器互相通信的大數據服務的云計算環境中,這種模型是無效的,因為其會消耗大量的系統帶寬并引發延遲性的問題。為了解決這些問題,近年來世界上的大型互聯網數據中心越來越多地使用葉脊(spine-and-leaf)網絡架構,這在服務器(東西走向)之間傳輸數據更加方便。參見下圖1。
這種網絡架構主要由兩部分組成:一個脊椎交換層和葉交換層。作為其最佳功能特征,每個葉交換機在pod中連接到每臺脊交換機,這極大地提高了通信效率,并減少了不同服務器之間的延遲。此外,脊葉兩級網絡架構避免了購買昂貴的核心層交換設備的需要,并且在業務需要保證的情況下可以使得逐漸添加交換機和網絡設備以用于擴展更容易,從而節省了初始投資成本。
圖1:傳統的三級網絡架構vs. 脊葉兩級網絡架構
處理脊葉兩層架構的布線挑戰
數據中心管理人員們在部署具有脊葉兩級網絡架構的數據中心時遇到了一些新問題。由于每臺葉交換機必須連接到每臺脊交換機,處理大量的網絡布線成為了一大主要的挑戰。例如,Corning公司的網狀互連模塊(下表1)解決了這一困難的問題。
表1:網格模塊產品描述。
現在,許多企業用戶已經開始使用高密度的40GbE交換線卡作為10GbE應用程序的一部分了。例如,高密度的10GbE SFP +線卡具有48x10GbE端口,而高密度40GbE QSFP +主板可具有36x40GbE端口。因此,可以使用40GbE線路卡在相同的布線空間和功耗條件下獲得4×36 = 144×10GbE的端口,從而降低單端口10GbE的成本和功耗。
下圖2顯示了布線系統中網格模塊的三種典型的應用。四個QSFP 40GbE通道(A,B,C和D)在網格模塊的MTP輸入處分為4x4的10GbE通道。然后將10GbE信道在網格模塊內被打亂,使得與QSFP收發器A相關聯的四個10GbE信道跨四個MTP輸出上分離。其結果是,連接到一個MTP輸出的四個SFP收發器從QSFP收發器A,B,C和D中的每一個接收10GbE信道。因此,我們在QSFP脊柱交換器端口和葉交換機端口之間實現了全網狀10GbE架構連接,而不必在MDA處斷開到LC連接。
圖2:布線系統中的網格模塊的三種典型應用。
下面的示例顯示了如何在主分布區(MDA)優化的脊柱和葉片配置的布線結構。例如,我們使用具有48x10GbE SFP +端口線卡的葉交換機和具有4x36x40GbE QSFP +端口線卡的脊柱交換機。如果葉交換機具有3:1的超額預訂比率,則來自每個葉交換機的16x10GbE上行鏈路端口必須連接到16臺脊柱交換機。假定來自脊柱交換機的40GbE端口作為四個10G端口運行,則每個脊柱交換機必須連接4x36x4 = 576個葉交換機,如圖3所示。
圖3:在10GbE應用中的脊柱和葉兩級網絡拓撲架構
圖4:全交叉連接布線結構與脊葉網架構MDA的比較
如果您企業使用傳統布線以實現脊葉交換機的完全架構網絡,則每臺脊柱交換機的40GbE QSFP +端口通過MDA中的MTP至LC模塊分為4x10GbE通道,然后通過交叉連接跳線以及連接到葉交換機的10GbE通道的相應數量的MTP-LC模塊(如圖4的左側所示)。傳統的方法沒有被廣泛使用,因為布線系統非常復雜,成本相對較高,并且在MDA需要大量的機架空間。在這種情況下,網格模塊可以成為解決這些問題的一個很好的解決方案。如圖4的右側所示,在MDA中的網絡模塊的情況下,葉交換機完全網格的實現,不必通過一個MTP至LC的模塊將脊交換機的40GbE端口拆分成10GbE信道。這種方法大大提高了MDA布線架構,并且對用戶有很大的價值,如下表2所示。
表2:在MDA中的網格模塊的優勢。
結論
隨著數據中心網絡帶寬需求的增加,數據中心骨干網逐漸從10GbE升級到40GbE,未來將達到100GbE。因此,通過使用現在分解為4×10GbE的40GbE和將來的100GbE分解成4×25GbE,脊葉網絡架構將是用于支持大數據傳輸的經濟和高效的網絡架構。使用網格模塊實現脊葉網絡的完全架構網絡支持當前的40GbE網絡,并且還允許實現到未來的100GbE網絡能力的無縫過渡。
關于作者
本文作者Rui Ma是Corning Optical Communications公司亞太地區企業網絡營銷經理,在光學架構化布線系統的設計、安裝和推廣方面擁有超過10年的經驗。他是數據中心行業高密度和先進光學結構化布線解決方案部署和驗收方面的主題專家。Rui擁有光學工程碩士學位和市場營銷工商管理碩士學位。