存儲網絡正努力朝著“跟上虛擬化服務器環境以及高速閃存存儲步伐”的方向發展。當網絡成為瓶頸的時候,升級就在所難免了。
在有關虛擬化或者集群數據庫上線話題的討論中,存儲網絡這個名詞通常會被忽略。更大的優先級往往會被放在與項目相關的服務器以及存儲身上,而不是在連接它們的網絡上。傳統意義上來看這樣做無可厚非,因為一般認為帶寬通常是足夠的。然而隨著高密度服務器虛擬化的發展以及基于閃存幾乎零延時的存儲的改進,網絡成了現在的瓶頸,或者說至少IT規劃人員需要考慮有關網絡升級的話題。
有關數據中心的三個層次
用于處理應用的計算資源層
用于存放計算數據的存儲層
用于連接計算資源層以及存儲層的網絡層
虛擬化技術實現了單臺服務器支撐幾十個虛擬機,并且在閃存技術幫助下存儲層的響應越來越迅速,這些變革對于數據中心的發展方向產生了戲劇化的影響。
大多數數據中心環境中,網絡層的發展也一直在不斷進行,其驅動之一就來自于更高性能以及更多功能上的需求。這些升級通常會隨著下一代存儲網絡組件(例如適配器和交換機)的成本逐漸降低而實現。一個更基本的事實是,新服務器的到來也需要通過升級網絡來減小帶寬上的壓力。
有關網絡性能方面的差距
計算資源層以及存儲層性能的飛速提升讓網絡成了性能上的短板。計算資源層能夠產生大量隨機的存儲I/O請求,閃存也能幫助存儲對這些計算請求進行響應。而網絡層不再有硬盤旋轉產生的延遲為其打馬虎眼,故而成了性能瓶頸。
IT規劃人員就突然遇到了升級整個存儲網絡的壓力,不過尚有些可選的應對方案,比如第五代(16 Gbps)的光纖通道、基于以太網的光纖通道、10 Gbt以太網、40 Gbt以太網以及InfiniBand和服務器端的網絡。
讓我們一起來比對一下不同網絡連接類型構成的各種網絡架構。
IP網絡(10 GbE或者更快的網絡)
基于IP以太網的存儲網絡為存儲網絡市場開辟了新的市場,因為人們意識到這將降低用戶的成本并且也便于維護。大多數數據中心都已經在用戶到服務器或者服務器之間使用基于IP的網絡。
因此這樣做的目的是為了降低整體存儲架構及其運維的成本,且維護人員無需特殊的技能要求。
現今的大多數IP存儲架構使用的是捆綁或者綁定的方式將一堆1 GbE的網絡連通在一起以提升性能及冗余度。10 GbE網絡的出現對于這種現象是好事,因為這樣就不用將1 GbE的網絡集合在一起了。然而10 GbE的網絡就像1 GbE網絡的發展一樣,設計者們需要提前了解。問題之一就是基于IP的存儲網絡使用的IP架構里,大多數使用的還是STP技術,即單次激活的連接僅為一個。
STP技術的問題在于,其設計之時交換機尚未廣泛應用,還僅是以太網的天下。一般來說,STP技術可以確保網絡中兩點之間的可用鏈路僅為一條。這樣設計的目的是為了避免環路問題。
在現代網絡環境中,總會有冗余線路,但由于STP技術,它們被屏蔽或者被關掉了。一旦主鏈路失效,網絡會自動聚合到另一條鏈路上。在大型網絡中,重新聚合的過程可能需要數秒來完成。結果是,不僅僅潛在的帶寬浪費了,對整個網絡也會帶來響應滯后的影響。
在1GbE網絡環境中出現失效鏈路問題不是太大,因為帶寬浪費現象不會導致嚴重后果,且每條鏈路本身也不是非常昂貴。而將網絡遷移至10 GbE網絡時,這就成了一個更顯眼的問題,因為被浪費的帶寬將可能達到先前的10倍或者更多。
IP網絡服務提供商們也在嘗試創建架構式基于IP的網絡,這種方式下不會有之前方式中產生的網絡擁塞現象。然而由于每家服務提供商提供的實施是其獨有的,因而供應商之間的互通性像拼湊的一樣。需要補充的是,這類實施所耗費的硬件資源往往會遠大于傳統的以太網服務提供商。
IP網絡協議可以在SCSI協議和IP協議之間做到相互轉化,甚至可以涉及TCP協議層。然而這些問題可以通過特定的網絡接口適配卡實現更為有效的IP和SCSI協議之間的轉換,但按照這樣的做法就會增加硬件成本,同時也會增加現有無縫IP網絡的復雜度。
16Gbps 第五代光纖通道
大多數存儲專家們對FC存儲網絡都不會陌生。光纖通道網絡給人的印象往往是價格昂貴并且更為復雜。然而光纖通道使用架構式網絡存儲拓撲,故而所有的鏈路都是活躍的。這就是說,第五代光纖通道里,16 Gpbs的鏈路不會有浪費或者使用不充分的現象。
光纖通道同樣也是一個無損網絡,這就是說數據一定會到達目的地,不會出現像在IP網絡里那樣重傳數據的需要。最后,協議之間也無需額外翻譯和轉換,因為FC協議可以透明地處理SCSI通訊包。
光纖通道在存儲網絡領域中不算新生代,但第五代光纖通道架構中所描述的功能實際上也能優化現今流行的虛擬機里面I/O帶寬的顆粒度。
服務器端的網絡
服務器端的網絡通常會借用軟件定義存儲來聚合不同服務器之間的本地存儲以實現虛擬層的計算資源層。聚合的存儲則由一個單一的資源池共享。這些類型的存儲網絡實際上顛覆了傳統數據中心的概念,但也不能完全替代,因為他們本身也會依存于相同的物理設備上。
服務器端的網絡大多數程度上依賴于基于IP的網絡協議,盡管有些場景也會用到無限帶寬技術。這樣會減輕一些之前描述過的問題,因為IP之間的通信功能是由物理主機里面的CPU資源實現的。此外,STP網絡故障應該可減少到最低,因為服務器間的連接是私有的,需要的連接也極少。
這些解決方案中某些方案會將聚合的存儲池里的數據切片。這樣做的目的在于提供了數據保護的同時,也將數據共享在集群式的環境中。但也同樣導致了網絡延時,因為這畢竟也是通過網絡連接到了服務器。
還有一些方案解決了這方面問題,實現方法是通過一臺虛擬機分配所有的資源。所有都從本地服務器讀取數據,故而不涉及延時。寫操作會發往本地池以及聚合資源池,實現數據安全及共享。簡要說來,這些系統為了實現性能上的提升也犧牲了一部分存儲容量上的使用效率。
高級網絡:無限帶寬技術,40 GbE以及第六代光纖通道技術
現今有一些高級存儲網絡技術供使用者選擇,例如無限帶寬技術、40 GbE以及第六代光纖通道技術。后面描述的兩類已經升級到了現今的IP及光纖通道標準,提供了更為強大的帶寬支持。無限帶寬技術是類似光纖通道的一項技術,但是帶寬在40 Gbps.
IT規劃者需要認真考慮選擇哪種架構,以確保對計算及存儲層投資回報率的最大化。
無限帶寬技術常見的使用場景是集群中的存儲節點間的相互連接,往往這些節點之間的連接對I/O都有較高的需求,例如高頻交易等。此外,在閃存設備之間的服務器鏡像也會用到相應技術。
雖然無限帶寬技術能夠在更為廣泛的存儲網絡配置中得到使用,尤其是服務器端的網絡,但是將其廣泛推廣可說是非常困難。它仍將作為一個特殊網絡場景使用的可選技術。
純粹的網絡
毋庸置疑的是,許多數據中心場景都分別遇到了逐漸升級到下一代存儲網絡架構的轉折點,計算及存儲層的投資回報率將會非常有限。如果沒有純粹的網絡帶寬,當虛擬化到達最大密度的時候,閃存存儲也無法提供最大的性能。
問題是:應該選擇哪一種網絡作為下一代的存儲網絡?大多數情況是要看有哪些方案可供選擇。大多數企業還是更愿意選擇現有的拓撲結構及協議模式,僅作少量的變更就可以平滑過渡到下一代網絡架構上。然而作為IT規劃者,更需要結合可供選擇的架構,以確保對計算及存儲層的投資可獲得最大投資回報率。在能實現更大密度及更高性能的前提下,升級到一個全新的架構也不是沒有可能的。