世界領先的高性能計算、數據中心端到端互連方案提供商Mellanox今日宣布,發布全球首個 200Gb/s 數據中心網絡互連解決方案。Mellanox ConnectX -6 適配器、Quantum 交換機、 LinkX 線纜和收發器一同構成了面向新一代高性能計算、機器學習、大數據、云、web 2.0 和存儲平臺的完整 200Gb/s HDR InfiniBand 網絡互連基礎設施。200Gb/s HDR InfiniBand 解決方案進一步鞏固了Mellanox的市場領先地位,同時使客戶和用戶能充分利用基于開放標準的技術,最大程度的提升應用程序的性能和可擴展性,同時極大降低數據中心的總體擁有成本。Mellanox 200Gb/s HDR 解決方案將在 2017 年大規模出貨。
“對于商業智能、國土安全、技術創新、新研究等領域來說,如果能有效利用呈指數級增長的數據,并通過數據分析來獲得實時的競爭優勢,具有至關重要的意義。在當今的系統設計中,網絡是最為關鍵的因素,它能加速很多要求苛刻的應用并進一步推動變革,”Mellanox公司總裁兼CEO Eyal Waldman表示,“Mellanox 非常榮幸地推出全新的 200Gb/s HDR InfiniBand 網絡解決方案;該方案具有全球最高的網絡帶寬和智能互連能力,將進一步推動我們的數字生活。HDR InfiniBand 創造了全新的性能和可擴展性記錄,同時滿足了客戶和合作伙伴對新一代互連產品的需求。”
“十年前,Intersect360 Research 開始對 HPC(高性能計算)市場開展商業調查,InfiniBand 技術當時剛剛成為高性能計算集群的互連方案首選,而 Mellanox 正是InfiniBand網絡的領導廠商,”Intersect360 Research 首席執行官 Addison Snell 指出,“InfiniBand 逐漸發展壯大,如今也成為了HPC系統里高性能存儲互連方案的首選。當前,類似數據分析和機器學習等高數據吞吐的應用正在迅速擴展,對高帶寬、低延遲互連的需求也擴大到了更廣闊的市場。HDR InfiniBand 網絡是一次巨大的飛躍,Mellanox 正卓有成效地推動其成為現實。”
“我們當前和未來的主要方向,是努力解決科學和數據分析問題。這要求計算節點、存儲和分析系統之間具備非常高的帶寬,從而構成單一的系統環境。”美國橡樹嶺國家實驗室OLCF項目總監 Arthur Bland 表示,“借助 HDR InfiniBand 網絡,我們將擁有開放的解決方案,并能夠以非常高的帶寬連接我們的所有系統。”
“不論是現在還是將來,系統中的數據傳送都是至關重要的因素。在規劃新一代的大規模HPC系統乃至規劃未來的百億億次性能的系統時,開放網絡技術都是我們的主要考量因素之一。” Livermore Computing 首席技術官 Bronis de Supinski 說道, “HDR InfiniBand 解決方案是這一技術領域的重要進步。”
美國洛斯阿拉莫斯國家實驗室 HPC研發SSI小組組長Parks Fields表示:“我們很高興看到Mellanox公司在高速互連領域始終保持著行業領先地位,HDR InfiniBand的問世無疑將更好地為我們的應用提供所需的性能。”
業界領袖、客戶及合作伙伴引言:
"要想最大限度的發揮HPC、機器學習、媒體創作或大數據應用的性能,高速存儲就是不可忽略的關鍵因素。"DataDirect Networks公司的產品總監Kurt Kuckein表示,“結合Mellanox最新的HDR 200Gb/s技術,DDN能夠將高性能存儲解決方案推升到一個新的高度,從而幫助客戶最大化的釋放計算性能,應對實時的工作負載。”
“不論是高性能計算、大數據應用還是云計算環境,Dell EMC的HPC用戶能夠從我們和Mellanox的聯合解決方案中獲得極致的性能、超高的可擴展性以及領先于同類市場的優勢。”Dell EMC高性能計算和方案驗證部高級副總裁Jim Ganthier先生說, “我們與Mellanox的聯合創新基于開放標準,并能夠幫助客戶加速他們的應用從而更快、更早的做出新的發現。”
“網絡是高性能集群的關鍵。”惠普企業HPC解決方案和阿波羅系列產品部副總裁Scott Misage表示,“Mellanox 200Gb HDR的產品能幫助我們共同的客戶充分利用惠普阿波羅HPC解決方案的可擴展性,最大限度地提升高性能計算負載的應用效率。”
“Mellanox 不僅致力于創新網絡解決方案,更積極支持提升數據中心的投資回報率。”華為服務器產品線總裁邱隆表示,“此次推出全新的 200Gb/s HDR 互連方案能夠極大的提升高性能計算和其他多種要求苛刻的應用的性能。”
“Mellanox 將通過 200Gb HDR InfiniBand 互連方案,提升 OpenPOWER 生態系統的網絡帶寬、延遲和可編程性,我們非常期待將 HDR InfiniBand 融入 OpenPOWER 技術體系當中。”IBM Systems 副總裁兼 IBM 院士、系統與技術集團首席技術官 Brad McCredie 表示,“OpenPOWER 生態系統通過協作創新包攬了最優秀的新技術,我們對于 ConnectX-6 和 Quantum 交換機接下來的發揮拭目以待。”
“Mellanox 借助 InfiniBand 解決方案在數據中心網絡領域取得了巨大的成就,達到了每秒傳輸 2 億條信息的世界一流性能。”浪潮集團胡雷鈞表示,“此外,新的 Mellanox 200Gb/s HDR InfiniBand Quantum 交換機是目前世界上最快、最靈活的交換機,延遲僅有 90ns(納秒)。”
“人工智能等 HPC 工作負載要求非常嚴苛,這使得系統必須具備極高的帶寬來實現海量的數據處理。HDR InfiniBand 網絡將成為現代數據中心里越來越重要的一項技術。Mellanox 智能互連解決方案為我們的各類 HPC 解決方案奠定了基礎;我們非常高興能用HDR網絡來幫助各類HPC客戶解決極高的工作負載壓力。”聯想數據中心業務集團高性能計算執行總監 Scott Tease 表示。
“ConnectX-6 網卡能使 NVIDIA GPU 的帶寬得到顯著提升,從而更好地打造面向 HPC、深度學習和數據中心等應用的解決方案,”NVIDIA 高速計算業務集團副總裁 Ian Buck 博士表示,“借助對 NVIDIA GPUDirect 技術的集成支持,Mellanox 互連解決方案和 NVIDIA 高性能 Tesla GPU 將實現 GPU 集群之間的直接數據傳輸,這對于在高度多元化的市場應對復雜且計算密集型的挑戰具有重要意義。”
希捷公司云系統及硅光業務副總裁暨總經理Ken Claffey表示:“我們的用戶一直在追尋科技前沿,最新的IT基礎設施能夠賦予他們更大的競爭優勢。希捷將全面支持Mellanox的HDR 200Gb/s解決方案,從而更好地為用戶的網絡密集型應用(如流媒體和計算集群)提供無與倫比的存儲平臺。”
“我們非常高興看到 Mellanox 最新的網絡解決方案與上一代相比速度加倍。”中科曙光技術高級副總裁沙超群表示,“這些新解決方案不僅適用于InfiniBand 和以太網,還使客戶能靈活運用 Mellanox 創新的Multi-Host技術。”
ConnectX-6 適配器包含200Gb/s單/雙端口兩種規格,與上一代產品相比數據速率翻番。它還擁有Mellanox 的VPI技術(Virtual Protocol Interconnect ),可以同時支持InfiniBand 和以太網標準協議,并能夠兼容如今主流的 CPU 平臺——包括x86、GPU、POWER、ARM、FPGA 等等。ConnectX-6網卡擁有高達每秒傳輸 2 億條消息的頂尖性能、0.6usec(微秒)的超低延遲,并且支持 MPI-Direct、RDMA、GPU-Direct、SR-IOV、數據加密等網絡內計算引擎(in-network computing)以及創新的 Multi-Host 技術,ConnectX-6能構建出業界最高效的計算和存儲平臺。
Mellanox 200Gb/s HDR InfiniBand Quantum 交換機是全球最快的交換機,支持 40 端口的 200Gb/s InfiniBand 或 80 端口的 100Gb/s InfiniBand 連接,可實現 16Tb/s 的總交換處理能力,且延遲極低,僅有 90ns(納秒)。Mellanox Quantum 交換機擁有市場上可擴展性最強的交換芯片,提升了對網絡內計算(in-network computing)技術的支持,并經過優化且靈活的路由引擎。Mellanox Quantum交換芯片將成為多種交換機系統的基礎,例如用于架頂解決方案的 40 端口 200Gb/s 或 80 端口 100Gb/s,以及 800 端口 200Gb/s 和 1600 端口 100Gb/s 模塊化交換機系統。
為了打造完整的端到端 200Gb/s InfiniBand 基礎架構,Mellanox還將發布最新的LinkX 解決方案,為用戶提供一系列不同長度的 200Gb/s 銅纜及硅光線纜。