解決日益增加的網絡流量問題,方法可不止一種,從廉價的快速修復戰略,到高級戰略投資與資本重組。新技術可以提高網絡容量并改進網絡結構,解決骨干網性能瓶頸以及大多數以太網連接問題。某些情況下,簡單的操作,就可以減輕不少壓力。
數據中心網絡性能問題可通過簡單的修復重組策略解決。
隨著IT向服務器增加I/O與通信密集型應用,數據中心網絡壓力急劇增加。
預裝的千兆內置網卡已經不再能夠支撐,并且在大多數情況下萬兆以太網卡也可能成為網絡瓶頸。
解決日益增加的網絡流量問題,方法可不止一種,從廉價的快速修復戰略,到高級戰略投資與資本重組。新技術可以提高網絡容量并改進網絡結構,解決骨干網性能瓶頸以及大多數以太網連接問題。在某些情況下,簡單的操作,就可以減輕不少壓力。
給服務器安裝更多的存儲
改變數據流是低成本的快速解決網絡瓶頸的方法之一。一個例子就是將流量從網絡轉儲轉移到服務器內部。
Google將存儲本地化到多個服務器上,然后安排這些應用程序使用最近的存儲中的數據。這種方式可以讓你只需簡單添加機柜交換機的端口,甚至只需兩臺交換機,以此實現結點的雙以太網端口連接。
同樣還可以給存儲結點選擇四個或更多端口配置的服務器,通過更多的端口進出流量來解決網絡瓶頸。幾乎所有數據都是通過機架頂端的交換機,降低延遲,也能大幅度降低與骨干網的數據交互。
數據庫
數據庫優化方案就不同了。最高效的模型是使用動態隨機存儲存儲器(DRAM)的雙列直插式內存模塊所構成的大型計算池,創建一個內存數據庫。理想情況下,IT組織會根據需求購買最新的旗艦級服務器,內存最高可達6TB,當然舊服務器一樣也要使用。
還有一種用于輔助內存數據庫架構的方式,是給服務器配置固態硬盤存儲(SSD)。這樣可以作為網絡存儲資源或DRAM的暫存緩沖器使用。兩種方法都可以減輕網絡負載,但萬兆以太網可能跟不上今年內的最新系統,即使同時使用兩個端口。
虛擬化
采用x86服務器集群來進行虛擬化十分普遍,但也為自己帶來了網絡瓶頸問題。臭名昭彰的啟動風暴就是網絡飽和的一個現象;即使在穩定狀態運行時,創建一個新實例也會增加負載,就如千兆字節的數據要從網絡存儲傳輸到服務器。
在這種情況下,將傳統虛擬化向容器模型莊毅。這意味著放棄能夠創建任何操作系統的靈活性,但這通常都不是問題。
采用容器方法,減少網絡同學,需要服務器的所有實例都使用相同的(支持容器)操作系統。DRAM空間會因為單一操作系統與應用程序棧而有所節約,還能讓實例數增加,并且更快啟動。但是如果應用程序實例是網絡或者I/O密集型,那么還是會產生壓力。
未來的技術方案
采用4萬兆以太網(四車道)鏈路連接交換機十分常見,我們正在尋找10萬兆以太網作為萬兆以太網替代方案。這種趨勢正在不斷推進,目前已經推出了25千兆以太網,支持采用四車道,價格也相對低廉,10萬兆以太網主要用于存儲設備以及交換機之間互聯。
數據中心可以使用25千兆以太網用于現有布線機架和交換機之間連接。不幸的是,你無法使用現有的適配器,而必須使用PCIe卡或新增結點。即使如此,替換現有的機頂機架交換機來創建一個10/100千兆以太網絡環境,不僅經濟,而且還能大幅提升整體集群性能。
這種新技術循序進入市場,也反應了云服務提供商的需求。目前使用25千兆鏈路的項目一般都不超過12個月,根據IEEE的批準設置紀錄時間表。網絡接口卡與交換機的生產預計在2015年下半年。
同樣還可以使用50千兆以太網雙通道管道技術。更快的速度可以容納更大的服務器以及在內存中運行大數據分析,每臺服務器至少要兩個連接接口。按照這樣的趨勢下去,高性能計算擁有大量核心數的CPU或GPU,數據饑餓有可能成為問題,因為將TB級的數據裝入內存也需要花上一些時間。
基于軟件的修復同樣還可以解決網絡瓶頸問題。軟件定義網絡可以為服務器之間通過骨干線路傳輸負載任務。
隨著存儲與架構性能的快速增長,網絡將是未來十年內創新的最前沿,所以演變因該是非常快速的。