國外某銀行通過構建大二層的網絡來實現遷移,其過程可以為更多的用戶提供借鑒。因為用戶要求保密的原因,所以本文不涉及到用戶的具體名稱,用Cloud銀行來代表,但是可以全面的展現遷移的過程和網絡的變更情況。
由于傳統的數據中心服務器利用率太低,平均只有10%~15%,浪費了大量的電力能源和機房資源。虛擬化技術能夠有效地提高服務器的利用率,降低能源消耗,降低客戶的運維成本,所以虛擬化技術得到了極大的發展。但是,虛擬化給數據中心帶來的不僅是服務器利用率的提高,還有網絡架構的變化。具體的來說,虛擬化技術的一項伴生技術—虛擬機動態遷移(如VMware的VMotion)在數據中心得到了廣泛的應用。
簡單來說,虛擬機遷移技術可以使數據中心的計算資源得到靈活的調配,進一步提高虛擬機資源的利用率。但是虛擬機遷移要求虛擬機遷移前后的IP和MAC地址不變,這就需要虛擬機遷移前后的網絡處于同一個二層域內部。由于客戶要求虛擬機遷移的范圍越來越大,甚至是跨越不同地域、不同機房之間的遷移,所以使得數據中心二層網絡的范圍越來越大,甚至出現了專業的大二層網絡這一新領域專題。
Cloud銀行原有數據中心A(簡稱DCA)與主數據中心(簡稱MDC)相連,DCA還承擔災備的任務。現在需要把DCA的業務遷移到一個新的數據中心B(簡稱DCB)中,從網絡來看,DCA的L3路由功能將最終被轉移到DCB,DCA中心的這些功能隨之廢止。在遷移的過程中,需要在DCA和DCB之間打通2層功能,隨后要把這個功能擴展到現在的MDC中。最終在這三個地方構成一個2層通信的域。Cloud銀行采用了SPB技術來實現擴展站點間的L2業務,而沒有通過傳統的方式。
傳統的方式是在兩個數據中心間的路上的每個交換機的接口上配置同一個VLAN,這樣做的缺點是配置過程非常復雜而且要花費很多時間,此外還將核心交換機暴露在跨越數據中心的VLAN廣播域中,造成安全隱患。更大的隱患來自可能的環路,DCA、DCB和MDC三個數據中心最終將實現互聯,這樣網絡拓撲就必須承受形成環路的風險。Cloud銀行采用了SPB來構建二層網絡,從改造時間來看,周期更短。此外,核心節點被保護,不受來自邊界的廣播風暴的影響;在遷移的過程中,設定統一的SPB框架,支撐了整個網絡的虛擬化服務;遷移之后,實現了一個避免環路的體系結構,基于最短路徑來利用所有的鏈路,在未來的網絡使用中,管理和擴容也更為容易。
在改造之前,Cloud銀行網絡的主要特點是采用了AVAYA“交換集群”技術提供邊緣交換機到雙活的雙匯聚連接。在DCA、DAB和MDC三個數據中心中,核心層和匯聚層都采用了AvayaERS8800系列來構建。MDC和DCA核心交換機被設置成各自的交換集群,兩個站點之間的雙鏈路被設置成SplitMultiLinkTrunks(SMLT),這樣這兩條線路在邏輯上可以看作是一條L2邏輯相連。網絡中已經有少量的VLAN跨越兩個站點。MDC和DCA之間的鏈路主要是OSPF來完成動態交換路由信息。
在整個遷移過程中,VSN(虛擬業務網絡)是一個非常重要的概念。這是在SPB已經構建完成基礎上來實現的。事實上,虛擬服務(無論是L2還是L3VSNs)只需要在SPB骨干的的邊界配置,而無需在核心SPB節點配置。從而提供了一個極具可靠性的運營級體系架構,因為在添加新業務的時候核心節點從來不需涉及。創建一個L2VSN非常簡單,僅僅把一個I-SID(骨干網上的一個服務事例標識號)和一個邊界VLAN關聯即可;創建一個L3VSN也并不復雜,只需要把一個I-SID和一個VRF關聯,在新產生的L3VSN配置相關的IS-ISIP路由重發布。