日前,社交網絡巨頭Facebook公司已經升級了連接其服務器的網絡,以應對內部數據流量的增長。新的快速骨干網絡(EBB)可以緩解其數據中心內的網絡擁塞,并為最終用戶提供更好的服務。
所有用戶流量都保留在現有網絡上,又稱為‘Classic Backbone’。
一個不同的挑戰
在過去十年中,Facebook公司在美國和歐洲的數據中心使用單一廣域網(WAN)骨干網進行互連,該網絡承載了用戶流量和內部服務器之間的流量。
內部流量由與用戶交互不直接相關的各種操作組成,例如將圖片和視頻移動到冷存儲或復制異地數據以進行災難恢復等。
根據網絡工程師Mikel Jimenez和Henry Kwok的博客文章,Facebook內部數據中心流量的增長速度遠遠快于用戶流量,直到開始干擾前端功能。
“隨著新的數據中心的建立,我們意識到需要將跨數據中心與面向互聯網的流量分為不同的網絡,并對其進行優化。在不到一年的時間里,我們構建了新的跨數據中心骨干網絡的第一個版本,稱為快速骨干網(EBB),從那以后我們一直在增長。”工程師在文章中解釋說。
在創建EBB時,Facebook公司將其網絡的物理拓撲劃分為四個并行平面,就像在2014年設計數據中心架構時一樣。該公司還開發了專有的模塊化路由平臺來提供內部網關協議(IGP)和消息傳遞功能。
Jimenez和Kwok在文章中寫道:“我們的新網絡的第一次迭代是使用內部網關協議(IGP)和全網內部BGP協議(IBGP)拓撲結構的完美結合來構建的,以實現基本的數據包路由。下一步是添加一個流量矩陣估計器和中央控制器來執行假設‘靜態’拓撲的流量工程函數。最后的迭代將內部分布式網絡平臺Open/R替代了原有的IGP,將分布式版本與中央控制器完全集成。”
由此產生的網絡能夠實現干凈的拆分故障域,并可實時響應流量峰值。接下來,Facebook公司計劃擴展網絡控制器功能,以更好地管理流量擁堵。