精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心技術專區 → 正文

高性能數據中心網絡必備技術——RDMA

責任編輯:cres 作者:harbor |來源:企業網D1Net  2018-03-15 11:26:22 原創文章 企業網D1Net

數據中心承載的網絡轉發數據量越來越大,建設高性能網絡勢在必行。以往我們將目光都集中在了軟件定義網絡技術的普及、100G/400G單端口帶寬的提升等方面的新技術,而忽略了性能。一個網絡的性能高低與每個環節都休戚相關,并不是簡單地將網絡出口由10G換成40G或100G就能改變的,從流量訪問一直到應用軟件的處理都需要提升,最大的瓶頸在哪里?搞過網絡技術的人都知道,對于一個交換機,其上的端口能做線速轉發是基本要求,但對于服務器來說就很困難,一個1G網卡的服務器,處理流量能達到800M就相當不錯了,這是因為服務器收到數據流量還要解析(交換機往往做三層解析就足夠,而且是由專門芯片來完成,不消耗CPU資源),將每個報文的內容都要解析出來,然后提供給應用層軟件,例如圖1:
 
 
圖1:RDMA與TCP/IP技術對比圖
 
圖1中右側是經典的TCP/IP協議,是數據中心內部數據傳輸網絡使用的唯一網絡協議,分為五層,其中藍色標記的代表硬件部分,紅色標記的代表是系統軟件部分,綠色標記的代表是應用軟件部分。在TCP/IP的網絡世界里,一個服務器網卡接收到一個數據報文,要經過網絡層和傳輸層,再送給應用層,網絡和傳輸層就要消耗CPU資源,由CPU來查詢內存地址,檢驗CRC,還原TCP包到應用,占用CPU緩存,單位時間內進來的報文數量越多,消耗CPU的資源就越多,CPU除了處理數據報文還要運行其它的應用,CPU并不是完全平穩運行的,CPU的高低波動也會影響處理報文的速度,從而影響網絡傳輸性能。左側是RDMA技術,最大的突破是將網絡層和傳輸層放到了硬件中,服務器的網卡上來實現,數據報文進入網卡后,在網卡硬件上就完成四層解析,直接上送到應用層軟件,四層解析CPU無需干預,這就是RDMA能帶來低延時、高帶寬和低CPU利用率的根本原因,也是RDMA技術的吸引人之處。利用RDMA技術,可以將網卡的帶寬利用率大幅提升,一個擁有1G網卡的服務器,使用RDMA技術,應用軟件處理的數據速度就可以接近1G。服務器可以將幾乎100%的CPU 資源都提供給計算,降低了CPU 在網絡協議處理中的占用率,服務器可以利用這些CPU 資源來做更多計算或提供其他的服務,相當于增加了虛擬機數量,節省了服務器資源。
 
RDMA技術的全稱叫做Remote Direct Memory Access,即遠程直接數據存取,就是為解決網絡傳輸中服務器端數據處理的延遲而產生的。RDMA通過網卡將數據直接傳入服務器的存儲區,不對操作系統造成任何影響,消除了外部存儲器復制和文本交換操作,解放內存帶寬和CPU資源。當一個應用執行RDMA讀或寫請求時,不執行任何數據復制。在不需要任何內核內存參與的條件下,RDMA請求從運行在用戶空間中的應用中發送到本地網卡,然后經過網絡傳送到遠程服務器網卡。RDMA最早專屬于Infiniband架構,隨著在網絡融合大趨勢下出現了RoCE(RDMA over Converged Ethernet)和iWARP(RDMA over TCP/IP) ,這使高速、超低延時、極低CPU使用率的RDMA得以部署在目前使用最廣泛的數據中心網絡上。三種技術都是在網絡設備側實現,用來和支持RDMA的網卡進行適配,識別和轉發RDMA報文。InfiniBand采用Cut-Through轉發模式,減少轉發時延,基于Credit流控機制,保證無丟包。RoCE性能與IB網絡相當,DCB特性保證無丟包,需要網絡支持DCB特性,但時延比IB交換機時延稍高一些。iWARP則是利用成熟IP網絡,繼承RDMA優點,但如果采用傳統IP網絡丟包對性能影響大。圖2列舉了三種技術的對比情況:
 
 
圖2:三種RDMA技術對比
 
從圖2中可以看到,IB是低延時網絡交換機的專有技術,一般延時可達到140ns,應用程序延時3μs,比普通網絡設備延時要低一個量級,但價格奇貴,一般是普通網絡設備的五到十倍,只有在金融、期貨交易環境中才會考慮使用,畢竟全部采用在技術和成本方面花費太高。為了降低應用成本,IB組織在IB協議基礎上增加了適用于以太網的協議:RoCE和iWARP。使用這兩類協議就可以通過普通的以太網硬件組網。iWARP技術的主要問題在于穩定性,一旦網絡有丟包,性能會奇差,而iWARP就是基于以太網協議實現的,以太網協議不可能沒有丟包,這使得iWARP技術沒有了應用空間。IB性能最好,RoCE則用得最多,RoCE是伴隨著RDMA技術才普及起來的,相比于IB技術,RoCE技術仍基于以太網實現,但是增加了丟包控制機制,確保以太網處于一個無丟包的狀態,雖然延時比IB差些,但部署成本要低得多,而且在這樣的網絡中,RDMA才是主角,通過服務器網卡來實現RDMA,網絡設備只要通過RoCE技術配合實現就行,關鍵還是靠RDMA來降低時延。
 
隨著人工智能和5G網絡的興起,“喚醒萬物,萬物互聯”的時代已經來臨。計算量需求的爆發式增長無疑對數據中心的網絡提出了更苛刻的要求,需要更多的高性能數據中心。RDMA技術作為一種先進的網絡數據傳輸方式映入眼簾,引起了強烈關注。與傳統網絡相比,RDMA可更加顯著地提升應用效率,提供高性能的網絡傳輸。RDMA這么好,為什么還沒有普及呢,仍只在HPC中有些應用,主要還是價格因素,現如今已經出現了像RoCE這樣兼容以太網的技術,相信在數據中心網絡領域,RDMA會真正的開花結果,尤其在存儲領域,IP存儲已經看上了RDMA,很多互聯網公司均開始考慮現在存儲網絡中部署RDMA,然后慢慢向其它網絡部分延伸。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:數據中心

原創文章 企業網D1Net

x 高性能數據中心網絡必備技術——RDMA 掃一掃
分享本文到朋友圈
當前位置:數據中心技術專區 → 正文

高性能數據中心網絡必備技術——RDMA

責任編輯:cres 作者:harbor |來源:企業網D1Net  2018-03-15 11:26:22 原創文章 企業網D1Net

數據中心承載的網絡轉發數據量越來越大,建設高性能網絡勢在必行。以往我們將目光都集中在了軟件定義網絡技術的普及、100G/400G單端口帶寬的提升等方面的新技術,而忽略了性能。一個網絡的性能高低與每個環節都休戚相關,并不是簡單地將網絡出口由10G換成40G或100G就能改變的,從流量訪問一直到應用軟件的處理都需要提升,最大的瓶頸在哪里?搞過網絡技術的人都知道,對于一個交換機,其上的端口能做線速轉發是基本要求,但對于服務器來說就很困難,一個1G網卡的服務器,處理流量能達到800M就相當不錯了,這是因為服務器收到數據流量還要解析(交換機往往做三層解析就足夠,而且是由專門芯片來完成,不消耗CPU資源),將每個報文的內容都要解析出來,然后提供給應用層軟件,例如圖1:
 
 
圖1:RDMA與TCP/IP技術對比圖
 
圖1中右側是經典的TCP/IP協議,是數據中心內部數據傳輸網絡使用的唯一網絡協議,分為五層,其中藍色標記的代表硬件部分,紅色標記的代表是系統軟件部分,綠色標記的代表是應用軟件部分。在TCP/IP的網絡世界里,一個服務器網卡接收到一個數據報文,要經過網絡層和傳輸層,再送給應用層,網絡和傳輸層就要消耗CPU資源,由CPU來查詢內存地址,檢驗CRC,還原TCP包到應用,占用CPU緩存,單位時間內進來的報文數量越多,消耗CPU的資源就越多,CPU除了處理數據報文還要運行其它的應用,CPU并不是完全平穩運行的,CPU的高低波動也會影響處理報文的速度,從而影響網絡傳輸性能。左側是RDMA技術,最大的突破是將網絡層和傳輸層放到了硬件中,服務器的網卡上來實現,數據報文進入網卡后,在網卡硬件上就完成四層解析,直接上送到應用層軟件,四層解析CPU無需干預,這就是RDMA能帶來低延時、高帶寬和低CPU利用率的根本原因,也是RDMA技術的吸引人之處。利用RDMA技術,可以將網卡的帶寬利用率大幅提升,一個擁有1G網卡的服務器,使用RDMA技術,應用軟件處理的數據速度就可以接近1G。服務器可以將幾乎100%的CPU 資源都提供給計算,降低了CPU 在網絡協議處理中的占用率,服務器可以利用這些CPU 資源來做更多計算或提供其他的服務,相當于增加了虛擬機數量,節省了服務器資源。
 
RDMA技術的全稱叫做Remote Direct Memory Access,即遠程直接數據存取,就是為解決網絡傳輸中服務器端數據處理的延遲而產生的。RDMA通過網卡將數據直接傳入服務器的存儲區,不對操作系統造成任何影響,消除了外部存儲器復制和文本交換操作,解放內存帶寬和CPU資源。當一個應用執行RDMA讀或寫請求時,不執行任何數據復制。在不需要任何內核內存參與的條件下,RDMA請求從運行在用戶空間中的應用中發送到本地網卡,然后經過網絡傳送到遠程服務器網卡。RDMA最早專屬于Infiniband架構,隨著在網絡融合大趨勢下出現了RoCE(RDMA over Converged Ethernet)和iWARP(RDMA over TCP/IP) ,這使高速、超低延時、極低CPU使用率的RDMA得以部署在目前使用最廣泛的數據中心網絡上。三種技術都是在網絡設備側實現,用來和支持RDMA的網卡進行適配,識別和轉發RDMA報文。InfiniBand采用Cut-Through轉發模式,減少轉發時延,基于Credit流控機制,保證無丟包。RoCE性能與IB網絡相當,DCB特性保證無丟包,需要網絡支持DCB特性,但時延比IB交換機時延稍高一些。iWARP則是利用成熟IP網絡,繼承RDMA優點,但如果采用傳統IP網絡丟包對性能影響大。圖2列舉了三種技術的對比情況:
 
 
圖2:三種RDMA技術對比
 
從圖2中可以看到,IB是低延時網絡交換機的專有技術,一般延時可達到140ns,應用程序延時3μs,比普通網絡設備延時要低一個量級,但價格奇貴,一般是普通網絡設備的五到十倍,只有在金融、期貨交易環境中才會考慮使用,畢竟全部采用在技術和成本方面花費太高。為了降低應用成本,IB組織在IB協議基礎上增加了適用于以太網的協議:RoCE和iWARP。使用這兩類協議就可以通過普通的以太網硬件組網。iWARP技術的主要問題在于穩定性,一旦網絡有丟包,性能會奇差,而iWARP就是基于以太網協議實現的,以太網協議不可能沒有丟包,這使得iWARP技術沒有了應用空間。IB性能最好,RoCE則用得最多,RoCE是伴隨著RDMA技術才普及起來的,相比于IB技術,RoCE技術仍基于以太網實現,但是增加了丟包控制機制,確保以太網處于一個無丟包的狀態,雖然延時比IB差些,但部署成本要低得多,而且在這樣的網絡中,RDMA才是主角,通過服務器網卡來實現RDMA,網絡設備只要通過RoCE技術配合實現就行,關鍵還是靠RDMA來降低時延。
 
隨著人工智能和5G網絡的興起,“喚醒萬物,萬物互聯”的時代已經來臨。計算量需求的爆發式增長無疑對數據中心的網絡提出了更苛刻的要求,需要更多的高性能數據中心。RDMA技術作為一種先進的網絡數據傳輸方式映入眼簾,引起了強烈關注。與傳統網絡相比,RDMA可更加顯著地提升應用效率,提供高性能的網絡傳輸。RDMA這么好,為什么還沒有普及呢,仍只在HPC中有些應用,主要還是價格因素,現如今已經出現了像RoCE這樣兼容以太網的技術,相信在數據中心網絡領域,RDMA會真正的開花結果,尤其在存儲領域,IP存儲已經看上了RDMA,很多互聯網公司均開始考慮現在存儲網絡中部署RDMA,然后慢慢向其它網絡部分延伸。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:數據中心

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 泰顺县| 安顺市| 陕西省| 临西县| 柳江县| 阳江市| 绥宁县| 宿州市| 阿克苏市| 肇庆市| 介休市| 三都| 江山市| 合作市| 昂仁县| 泗阳县| 洪湖市| 临颍县| 宁津县| 呼图壁县| 汕头市| 广汉市| 阳谷县| 霍州市| 特克斯县| 虎林市| 云林县| 邹平县| 偃师市| 临城县| 马鞍山市| 尼勒克县| 谷城县| 桑日县| 前郭尔| 张北县| 西和县| 临桂县| 长兴县| 彭水| 湖南省|