早在幾年前,選擇何種協議來連接計算機到網絡根本不需要糾結。中等規模數據中心的服務器使用以太網互聯技術,而如果你想連接很多節點到單個高性能計算機(HPC),則需要選擇InfiniBand。
而現在,這種選擇開始模糊。這兩種協議開始“侵犯對方的領地”,以更好地互聯較大的數據中心。最新版本的以太網——千兆以太網(Gigabit Ethernet)完全能夠支持更大的HPC系統,而InfiniBand也正被越來越多地應用于性能敏感的企業數據中心。
從世界最快超級計算機的前500強最新名單來看,500強系統中有226個系統使用的是InfiniBand,而只有188個使用千兆以太網。
目前,對于網絡聚合點,可以使用100千兆以太網,其中100千兆以太網卡的每個端點都能以100Gbps傳輸數據。更便宜的1、10和40千兆以太網網卡同樣也可以用于服務器和交換機。為了滿足對更多帶寬的需求,以太網聯盟已經開始開發400千兆以太網。
當前版本的InfiniBand(FDR)提供56Gbps(或者每通道14Gbps)的速度。下一代EDR(增強型數據速率)將于明年推出,提供100Gbps。
這些數字只是告訴了我們一部分事實。InfiniBand提供的優勢還包括扁平化的拓撲結構、更低的延遲性和對服務器處理器更少的依賴。而以太網在整個網絡設備市場無處不在。
以太網的力量在于它無處不在,從筆記本電腦到最大的數據中心交換機,以太網聯盟主席John D'Ambrosia表示:“有很多公司都提供以太網解決方案,一個共同IP可以跨多個應用程序。”
這種無處不在確保了互操作性以及低成本,因為很多供應商激烈的競爭將拉低價格。“對于以太網,你可以將很多東西放在一起用,你可以獲得競爭力,同時降低成本。”
InfiniBand在2000年出現,它主要用于綁定多臺服務器的內存和處理器,讓它們之間可以進行通信,仿佛位于同一塊電路板上一樣。要做到這一點,InfiniBand的結構并不簡單,結合OSI(開放系統互聯)網絡協議棧的底部四層(物理、數據鏈路、網絡和傳輸層)到單一架構。
InfiniBand行業協會工作組聯合主席Bill Lee表示:“InfiniBand的目標是改善應用程序之間的通信。”這似乎在暗諷以太網的“存儲和轉發”的方式。
與千兆以太網的分層拓撲結構不同,InfiniBand是平面結構,從拓撲結構上來說,這意味著每個節點都有對所有其他節點的直接連接。InfiniBand的特別之處在于RDMa(遠程直接內存訪問),這允許網卡在服務器上讀取和寫入數據,而無需服務器處理器來進行這個工作。
InfiniBand迅速獲得了HPC系統的青睞,如上面所述,這項技術現在已經蔓延到了企業環境。例如,Oracle公司使用InfiniBand來為其Exadata和Exalogic數據分析設備提高性能。微軟為其最新發布的Windows Server 2012添加了對RDMA的直接支持。
InfiniBand的另一個企業用戶是美國退伍軍人事務部,這個美國聯邦機構的信息操作約在200臺服務器上運行,它們通過InfiniBand來通信。該事務部的解決方案架構師Augie Turano表示:“我們要進行大量數據傳輸。”數據庫經常在服務器間移動,這樣就可以使用不同的應用程序來分析數據庫。Turano表示:“對于我們來說,能夠以InfiniBand的速度來在服務器間移動數據,是一個很大的改進。”
然而,以太網聯盟的D'Ambrosia并不畏懼InfiniBand的性能優勢,他認為以太網能夠趕超這種性能。他說道:“我們喜歡來自其他技術的挑戰,因為這讓我們意識到我們還可以繼續完善。”
雖然以太網最初被用來連接少量計算機,而后來的版本則是專門針對更大型應用,例如作為整個數據中心的背板,這種應用很快就成為主流。另外,一些技術(例如iWarp和RoCE)能夠幫助以太網降低延遲性和處理器使用,讓千兆以太網可以直接與InfiniBand競爭。
D'Ambrosia表示:“以太網正在不斷完善。”InfiniBand要注意了,數據中心正潛伏著一個有力的競爭對手。