由于越來越多的服務器被虛擬化,因此服務器之間的連接也自然而然地主要通過運行在服務器上的虛擬交換機來進行。如此便出現了一個問題:架頂式數據中心交換機(ToR)最終會被并入服務器嗎?
支持者們認為答案是肯定的,尤其是因為現在的服務器一般都是多核、二層智能和高密度光接口的,因此上行的內核連接可由光交叉連接來提供,這不過是把流量從服務器轉移到方向引導器上而已。
比較保守的人則認為答案是否定的,或者說短期內不可能。雖然服務器將越來越多地承擔虛機間的交換責任,但架頂式交換機將繼續存在下去。
在問及服務器是否最終會取代ToR交換機時,Dell’Oro的交換機分析師Alan Weckel說:
“簡單的回答是不。歸根結底,機架服務器還是要連接到ToR交換機上去的。這就是目前80%的市場現狀。所以說,ToR不會很快消失。”
Fiber Mountain公司的觀點與此不同。這家新創企業專門設計軟件控制的光交叉連接。“我們正準備擯棄層的概念:交換機層、交換機之間的鏈路層,等等,”Fiber Mountain的創始人兼CEO MH Raza說。“交換作為一種功能正在從交換機盒子里分離出來,成為服務器盒子里與其他功能共存的功能。假如我們把交換功能放入服務器里,其邏輯就和機架前端的很多服務器一樣,服務器內置交換機就跟內置了眾多的虛機一樣。為何不能在服務器上進行交換呢?這在服務器上是可以做到的。”
Raza說,他知道有一家廠商制作的英特爾多核主板就帶博通的Trident II交換芯片和一個高容量光纖連接器。這個1U設備有一個光纖接口,可支持最多64個25Gbps通道,容量可從800G到1.6Tbps——這一容量與英特爾和康寧 MXC連接器的一樣。利用MXC以及相同的硅光子技術,服務器之間也能直接通信,而無須使用任何交換機。
“交換是可以由服務器來做的,”他說。“我可以分配數據包走右邊的通道。它還需要去多少個地方?10個、12個,還是40個?都不成問題。只要你有MXC連接器,你就能讓數據包去32個不同的目的地。”
Raza稱,實現這一點現在就是可能的,而之所以沒人談論它,是因為這一前景極具顛覆性。我們依然還帶著傳統網絡思維的眼罩。“有沒有人談論它,要取決于市場采用硅光子技術的速度有多快,”Raza說。“但它現在肯定是可以做到的。具體時間表要取決于技術和市場方面的投資與遷移。”
鑒于VMware的NSX產品是專門用于在VMware虛擬服務器環境中處理虛擬交換,你或許會認為該公司就是服務器最終包含交換機這一概念的最大支持者。但VMware網絡安全事業部的首席技術戰略官Guido Appenzeller稱,盡管服務器作為ToR交換機架構模式是為超大規模環境而提出的,但也從未見到它被實際使用過。
“總之,如果想放棄ToR,那服務器就得增加類似包分類引擎的新芯片,”Appenzeller說。“可能需要在服務器內增加一個微型交換機。但今天的服務器架構還無法支持它。”微型交換機應該是以太網設備,能夠實現服務器和服務器的直連。另一種選擇是一層交叉連接和服務器主板上的多路復用器。Appenzeller說。
Appenzeller之所以贊成以太網微型交換機,是因為此類交換機對于服務器圈子來說相當熟悉,而且它對VLAN的分隔能力也是有些光交叉連接無法做到的。“但我從未見到有誰部署過這種模式。”Appenzeller說:“可能是因為ToR交換機的端口價格下跌得很快,而使兩者都顯得不太可行吧。”
Dell’Oro集團對此也表贊同。該咨詢機構的報告稱,2011年到2016年間,10G以太網的平均端口售價從715美元跌到212美元。
據Cumulus網絡公司CEO兼聯合創始人JR Rivers說,網絡芯片廠商如Broadcom和Mellanox所提供的網絡處理器的性價比要高于通用CPU。還有,帶網絡功能會使得中央CPU的性能下降,從而會降低其價值。就像Rivers所言:“如果在CPU上多增加模塊,那么回報肯定會受損。”
River稱,之前光纖互連和背板的方式也曾被評估過,但由于成本太高,太過復雜其市場沒能啟動。英特爾的RackScale架構解耦和池化了計算、網絡及存儲資源,從而通過軟件讓IT機架更為靈活、敏捷,而利用硅光子互連架構可將所有這些池化資源都連接起來。
然而,這種方式仍可能被證明過于復雜而不切實際。Rivers說:“光背板太過復雜,所以才沒能普及開來,而 RackScale與今天的數據中心環境耦合得相當緊密,而且是經過良好設計的系統,這一點與能夠在全網上快速遷移的松耦合系統是不同的。RackScale似乎想一招鮮吃遍天,但這是不可能的,而且其客戶往往也無法從中獲益。”
他將這種努力比喻做嵌入刀片服務器中的刀片式交換機,用戶一般都會忽略其存在,仍然會繼續讓刀片與思科的交換機端口連接。
依照同樣的思路,River對數據中心繞開ToR交換機、使用光技術直連服務器的做法也表示了懷疑:“很難看到這種技術的好處,光交叉技術想成為永久改變網絡的基礎技術要素很困難,更何況它們已存在了相當一段時間了。”
按照英特爾的說法,即便服務器將會承擔更多的交換智能和本地功能,但ToR仍將作為物理上獨立的交換機存在。
“ToR仍將在數據中心內部發揮重要作用,”英特爾通信基礎設施部門總經理Steve Price說。“目前的一個趨勢是,在服務器機架上會不斷增加網絡智能。例如,策略執行和多租戶隧道功能今天或者發生在vSwitch上,或者發生在ToR上。隨著機架內計算密度的增加,以及服務器上SDN和NFV的出現,每個托架上跨虛擬和物理交換機的東西向流量將會增加。服務器將會成為能夠通過IA架構上的軟件來處理數據包的混合平臺,利用托架級交換可匯聚和管理跨多臺服務器的工作負載。”
Price說,托架級交換可以為本托架內的多臺服務器提供低延遲的連接性,然后通過100G以太網將流量匯聚給ToR。不過他也承認,在每個服務器托架上提供高密度端口的交換會增加布線成本,所以英特爾建議可將所有服務器托架上的流量匯聚起來,通過100G以太網上行鏈路傳給ToR交換機。
英特爾的戰略就是增加在Open vSwitch社區項目上的投入,關注數據平面開發工具套件(DPDK),同時提升IA架構上虛擬交換的性能,在需要的時候可以讓硬件卸載流量給NIC(網卡)或物理交換機。Price稱,DPDK目前已計劃納入Open vSwitch 2.4。他還認為,RackScale架構更關注的是超大規模數據中心,此類數據中心的管理者希望降低TCO,提高資源的靈活性和敏捷性。
思科計算系統產品事業部的技術營銷總監Dan Hanson說,英特爾和思科之間已對RackScale架構和對服務器/交換機的解耦以及分布式內存體系都進行了討論。Hanson認為,思科對交換機解耦的觀點是與英特爾互補的,但在如何最佳實現解耦方面存在分歧。“這個概念包含了很多承諾,也有很多人在推動這件事情,”Hanson說。“思科只是想尋找到實現它的最佳途徑。”
Hanson認為,英特爾的DPDK是一種可能的途徑,因為它可以用一些硬件來輔助思科的UCS服務器在網絡功能虛擬化(NFV)應用中能力的發揮,而通用的x86平臺則性能不夠。但如何最佳地實現分布式、非匯聚交換以及內存管理,以及業界何時才能做好這方面的準備,目前依然處在開放性討論階段。
“我們之所以跟英特爾討論RackScale架構的原因就在于這是一種補充架構,我們可以從中尋找到向服務器擴展更多功能的途徑,在機架內進行分發和解耦。”Hanson說。“到目前為止,我們還只是在UCS機架內共享這些組件中的一部分,但或許尚未擴展到英特爾所關注的內存層面。”
Hanson指出,思科數個月前所發布的在其UCS M系列服務器上所使用的System Link技術就有可以映射到RackScale上的功能。System Link是一塊芯片,可以為M系列提供連接解耦的子系統到fabric架構的能力,這里的fabric是軟件定義的、基于策略配置的、可部署和管理每個應用資源的架構。