在過去,條條道路通數據中心。
企業數據中心作為網絡、存儲和計算服務的配置點,應位于關鍵任務功能區域的中心,原因很簡單:為成千上萬的用戶提供大規模、集中化服務的成本如此之高,只能通過物理配置所需資源的方法進行管理。
如今,所有這一切已經發生了改變。隨著對運作效率、可持續業務操作、動態業務多元化和成本競爭力的要求不斷增長,盡管數據中心的角色與過去相差無幾,但其發揮作用的方式卻在快速地演進發展。
數據中心將經歷三個演進發展階段。首先是計算基板的演進,具體包括服務器的虛擬化和通過虛擬機的實時移植來移動負載和應用。其次是存儲基板的演進,如存儲資源的全局化和虛擬化以及存儲區域網絡 (SAN) 和網絡附加存儲 (NAS) 的功能性融合。最后,在第三個階段,我們發現有必要進行底層網絡基板的演進。
要實現這三個階段的變革并獲得優勢,網絡基板的演進必須與計算域和存儲域的變革同步。企業數據中心必須找到可有效增強營運效率、存儲容量和處理速度,同時降低成本的途徑。新一代數據中心可滿足所有這些需求,而且可提供用以確保其長期關聯性的增長和擴展特性。
優化網絡基板
當數據中心首次被設計出來時,其目的旨在為大量用戶提供訪問數量相對較少的通用應用的途徑。這些應用基于簡單的命令-響應交互模型之上,可處理基于文本的數據。
其結果是,底層網絡的設計相對初級,而且依靠傳統服務提供商或企業通常使用的第 2 層(交換)和第 3 層(路由)設備。但是,對于當今的媒體密集型流量而言,這種架構的局限性迅速體現出來,不僅會導致可用傳輸資源和交換資源的利用效率低下,還會給虛擬機的移動性造成不良影響,而這種移動性功能對于多樣化、動態提供的應用和服務的可用性來說至關重要。這種差強人意的網絡架構會增加數據中心的 CAPEX、 OPEX 和功耗,所有這些都違背了新一代數據中心的設計宗旨。
統一結構
當今,部署在數據中心服務器機架上的典型服務器都配有 2 個或者 3 個高功耗適配器,用以連接網絡(以太網)、存儲(光纖通道)和集群(InfiniBand 或者專有互聯)3 個完全不同的結構中。這 3 種結構的互連要求差異很大:網絡互連能夠容忍數據包丟失和高時延;存儲互連需保證無數據包丟失,而集群互連則需要以最低的時遲協助進程間通信。這些截然不同的結構導致了“網絡蔓延”現象的出現,即數以萬計的線纜通過成百上千的網絡交換機、路由器和應用設備,將成千上萬的服務器和存儲設備連接在一起。所有這些必然會導致功耗與冷卻成本的增加,以及管理這些結構所需的 CAPEX 和 OPEX 成本的增長。
10G 以太網的出現,加之行業為滿足存儲和集群互聯需求而對以太網協議進行的關鍵擴展,將使現有結構融合為基于以太網的統一整合型網絡結構。這種結構將提供對其所支持的存儲和處理資源的無縫訪問。從純物理資源的角度來看,由于該結構將適配器、線纜和交換機等資源進行了整合,因而可以降低新一代數據中心的營運成本和用電成本。
扁平網絡
當今的數據中心網絡采用的是針對企業網和服務提供商網絡開發的傳統 L2 和 L3 網絡設備(交換機和路由器)。這種傳統設備無法為滿足新一代數據中心的嚴格要求而進行全面擴展。控制協議的可擴展性問題導致資源利用效率低下(鏈路、交換機、網絡)、L2 VLAN 和 L3 子網等限制性拓撲結構,以及嚴重超額的層級架構,這一切都會嚴重限制虛擬機的移動性,以及隨之而來的移動工作負載和動態提供應用的能力。這些問題會在網絡性能和功耗方面導致不盡人意的結果,并會對計算和存儲虛擬化所需的關鍵優化工作造成干擾。
在過去幾年里,我們看到專用于 L2 和 L3 以太網交換的商用芯片的出現。這些交換芯片可滿足新一代數據中心的獨特要求,并提供多路負載均衡、主動擁塞管理和可擴展結構拓撲等增強性能,從而能夠在鏈路、交換機和網絡層面上顯著改善資源的利用效率。
控制層協議的復雜性和專有實施將被可擴展的全新開放式控制協議管理棧所取代,該管理棧甚至可與數據層完全分離。控制層的可擴展性能夠擴展出數以萬計的節點,從而實現貫穿整個數據中心的、無縫與實時的虛擬機遷移。
所有這些數據層和控制層的增強功能都將促成跨整個數據中心的大型、扁平 L2網絡結構的誕生。數據中心網絡基板的“扁平化”可實現將數據中心網絡徹底商品化進而從根本上改變數據中心的經濟性。
[page]
與常規 L2 / L3 交換設備相似,數據中心的各種“智能化”設備(負載均衡器、安全設備、應用加速器等)也采用可縱向擴展架構,現已成為嚴重的可擴展性瓶頸。這些設備會在網絡中造成阻塞點,并進一步限制在整個數據中心內實現虛擬機的無縫實時移植這一最終目標的實現。
諸如負載均衡器、應用加速器和安全設備(認證、加密、訪問控制、入侵防御等)等解決方案也需要適應虛擬數據中心架構。它們必須能夠支持移動用戶、移動虛擬機和動態網絡配置。數據中心將不再使用專有的封閉式可縱向擴展硬件實施方案,而是通過在大型扁平網絡的邊緣標準服務器上運行軟件來部署這些解決方案,這樣就能以極低的成本實現智能化的橫向擴展。
能源匹配網絡
傳統的網絡設備沒能充分考慮到能源感知或能源匹配問題。即便是行業領先的交換機和路由器在低利用率下運行時也會消耗接近峰值的功率。在網絡層面,數據中心運營商無法通過其網絡的子網來路由流量,也就無法在數據中心服務利用率較低的時候對能耗進行優化。
新一代數據中心要求在器件、電路、組件、板件、系統、軟件以及網絡管理等各個層面都實現能源感知和匹配設計。這些技術可顯著減少功耗以及相應的冷卻成本,使數據中心運營商可對整個數據中心的能耗優化進行控制并將其與數據中心服務的使用情況相匹配。
新一代數據中心網絡
新一代數據中心網絡將采用“扁平的一體化環保型”結構。它不僅將阻止大規模的“蔓延”,并可降低因管理彼此獨立的網絡、存儲和集群結構所帶來的成本,而且還將采用商品化的、能源匹配型交換機,構建可擴展出數以萬計節點的大型扁平拓撲,從而實現無縫的虛擬機移動性。
最為重要的是,其可將控制權交給數據中心運營商,以使其能夠應用基于策略的流量路由和智能化,并管理總體能耗。結果將實現網絡基板的商品化,這不僅會大幅度降低采購成本,亦可在“技術食物鏈”的更高層面推動創新。
新一代數據中心的實踐操作范例
這種新型數據中心網絡理念的部署實例之一就是微軟的 Monsoon。Monsoon 是一種網狀架構,使用低成本的 L2 設備。其可通過修改在控制層執行的源路由以及執行數據層上的多路徑路由來實現可擴展性。這種模型采用斯坦福大學開發的 Valiant Load Balancing 技術,能夠跨越廣域主干網建立邏輯型全網狀拓撲,使用不超過 2 個跳轉就能把數據從源頭路由至目的地。通過采用簡單的負載均衡技術,其可將負載分布到整個網絡上,從而獲得任意網絡拓撲的支持。
在另一個例子中,亞馬遜的彈性計算云 (Elastic Compute Cloud) 及其固有的彈性負載均衡技術都能夠自動將傳輸進入的流量分配到多個亞馬遜 EC2 實例的邏輯層次 (logical appearance) 上。傳輸進入的流量可被分配到位于單個或多個可用域上的多個 EC2 實例中。Elastic Compute Cloud 進程可根據所進入應用流量的多少自動擴展,并可檢測“非健康”的負載均衡實例,一旦檢測到,EC2 將不再把流量路由到這些實例,而是將流量重新分配到那些工作正常的實例。
最近的范例就是斯坦福大學的 OpenFlow 項目。該項目的設計目的是為商用以太網交換機、路由器和無線接入點增加一個功能集。OpenFlow 是一種可提供標準化“API”的開放式標準,便于研究人員在無需要求廠商暴露其網絡設備的專有技術的情況下在網絡上運行實驗。它是一種非常出色的協議,體現在其充分利用并繼承了原有技術的優點。在傳統的網絡架構中,數據包轉發和高級路由決策一般發生在同一網絡設備中,而采用 OpenFlow,這些功能將被分開。雖然路由決策被轉移到單獨的服務器上,但數據路徑仍然保留在交換機上。這樣做可實現分布式的“任務量劃分”并改善數據處理效率。
新一代數據中心的未來
那么,這一切對于數據中心的演進以及可從新一代數據中心的發展中受益的人來說,意義何在呢?
首先必須認識到:環境在三方面的演進發展是對不斷變化的市場需求的響應。計算基板的演進包括服務器的虛擬化和移動虛擬機的推出,發生在第一個階段且大致已經完成。下一步是存儲資源的全局化和虛擬化,即 SAN 和 NAS 的功能性融合。最后一個階段仍然在進行當中,是網絡基板的演進,也是另外 2 個階段所依靠的關鍵。
隨著網絡從多網絡的層級模型向集成度更高的、單層單網絡模型演進,我們將看到由數據中心資源集中化的持續性優勢所帶來的運營成本和能耗成本的下降。同時,我們將更加依賴包括以太網光纖通道 (FCoE) 和傳統高速(千兆位和萬兆位)以太網在內的連接技術,以滿足富媒體內容不斷增長的需求。
最終,隨著這種模型落地生根,并成為數據中心資源連接的標準,我們將看到一系列優勢的顯現。這些優勢包括:
“ 能夠無縫、有效地部署和管理基于云的服務和應用
“ 通過將以太網作為主要的存儲訪問方式所產生的規模經濟
“ 由于網絡運營效率的提升,以及網絡和存儲資源間時延的降低,網絡性能將得到大幅度提升
“ 可支持基于 Web 的服務、面向服務的架構模型和 Web 2.0 應用環境
“ 在今后幾年中擴大對移動性的支持,實現針對大部分內容的最終目標的支持
“ 能效的提升不但可以降低成本,而且更為環保。
新一代數據中心既不是一種選項,也不是停留在紙面的理論,而是一種現實。它業已面世且正在不斷發展。