精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心行業動態 → 正文

數據中心網絡性能:新應用下的新需求

責任編輯:editor005 |來源:企業網D1Net  2017-06-07 15:34:42 本文摘自:訊石光通訊網

隨著機器學習,大數據,云計算和NFV不斷完善,數據中心網絡性能也隨之發展。亞馬遜,谷歌,百度和騰訊等大型云服務提供商已更新提供IT服務的方式,使之功能更強大,速度更敏捷,靈活性更高。這敲響了傳統運營商的警鐘,AT&T技術與運營首席策略官John Donovan 表示,AT&T致力于成為“世界上最具侵略性的IT公司”。OTT產品在業界的應用已變得普遍,應用和服務開發都需要創新完善。

他表示:“廠商正在逐漸成為競爭對手,過去的競爭對手變為開源開發等領域的合作伙伴。整個行業的工作方式正在發生變化。我們在標準機構這個平臺上共同管理,交流意見解決問題、制作產品。每個參與者都要在規則內,在競爭中合作。”

基于了未來發展和競爭現狀,諸如AT&T這樣的運營商已經擁抱NFV和分布式計算,以支持應用交付、機器學習和大數據分析來管理基礎設施。這些演變需要在數據中心不斷發展的前提下實現,以確保大型數據集和IO密集型工作負載的性能。

普通于云計算的企業工作負載是計算密集型的,但不一定是IO密集型。因此,使用NFV和云計算的通信應用程序需要更高要求的網絡結構。運用NFV的運營商,需要收集大量在網絡的虛擬和物理層的實時數據。

Global Data首席分析師Peter Jarich解釋說:“我們致力于實現可以查找任何字節,操作,捕獲,重寫;通過網絡端到端的每個數據包進行時間戳,對交換機中的緩沖進行連續的實時監控。”

性能杠桿:帶寬速度

隨著對海量數據傳輸和網絡瞬間數據傳輸的研究逐漸深入,我們發現影響系統性能的原因有兩個:原始吞吐量和延遲。

為了解決原始吞吐量的問題,大容量服務器正在重新定義數據中心內的架構和經濟模型。我們對提高服務器速度進行投資,使之從10Gb / s提高到25Gb / s以上,提高組織帶寬和消息速率升。跟10Gb / s的相比25Gb / s的帶寬提高2.5倍,成本在1.3X到1.5X之間。

Gartner數據中心融合和數據中心實踐副總裁兼分析師Joe Skorupa表示“從經濟角度來看,此舉意義重大,現行的25 Gb / s和50 Gb / s服務架構將轉換為50 Gb / s和100 Gb / s的網絡連接,與此同時光網絡成本也在下降 。40Gb / s連接需要四條10 Gb / s的通道,今天的50Gb / s連接由25b / s鏈路即可,速度的提升意味著價格下降,因為交換機端口和光纖成本都會下降。“

在數據中心互連方面,容量是影響性能的重要因素。例如,移動邊緣計算正在成為趨勢,因為運營商希望使用機器學習和人工智能來管理具有更多分布式節點的網絡。

Jarich指出:“過去,每兩百個基站都有一個EPC節點,所以在美國傳統的分組核心中將有十幾個站點。現在,您可能有成千上萬的站點,因為用戶需要更多的帶寬將其鏈接到核心。如果我們要在數據中心的網絡邊緣實施大量的分析和控制,那么我們必須快速提升分析速度和控制的靈活度。”

降低延遲的架構

考慮到延遲的因素,內部數據中心拓撲也在變化,老式的三層設計被leaf-spine的設計所取代,這種設計方式專門用于大數據行業,如不斷發展的電信數據中心。傳統的三層模式由核心路由器,聚合路由器和接入交換機組成,通過冗余路徑互連。但一般只有一個主要路由,只有在主要路由中斷的情況下才啟動備份路徑。

下一代配置中設有兩層leaf-spine。leaf層由連接到服務器,防火墻,負載平衡器和邊緣路由器等設備的接入交換機組成。spine層由執行路由的骨干交換機組成。每個leaf交換機與每個spine交換機互連,構成網格拓撲,這意味著所有設備的距離包含了信息傳播所需的可預測的延遲量。動態路由根據網絡變化確定和調整最佳路徑。

Skorupa說:“此舉顯著降低成本的同時提供了大量的橫截面帶寬,傳輸大量數據不成問題。我們相信很快也可以50 Gb / s服務器中得到應用。”

即使是在傳輸少量數據時,高速連接也十分重要。Skorupa解釋說:“當您的工作負載傳遞少量延遲敏感的數據時,從10 Gb / s轉為25 Gb / s就有了用武之地。 網絡延遲可能只占用了百分之五的時間,但是在10Gb / s連接線纜需要2.5%乃至更長的時間,轉換為25 Gb / s意味著從一個節點到另一個節點的所需時間的縮短。所有的這些都使得這些新應用程序更加易于運轉。”

從vSwitch卸載(offload)

影響分布式和虛擬化應用程序延遲的另一個問題是虛擬交換機(vSwitch)的性能不足。

Skorupa表示:“當您查看廣域網優化和虛擬防火墻等服務時,推出了大量的開放源代碼,這是vSwitch的一個性能問題。我們可以通過將一些交換功能遷移到網卡(NIC)中,或者購買更多的服務器,但這會對NFV的投資回報率產生負面影響。

offload的策略減輕了CPU的工作量。通過移動到支持高級內核旁路技術的技術棧實現最低延遲并顯著提高數據傳輸速率。

消息加速軟件等輔助技術有助于實現這一點,它可以降低總體延遲并最小化CPU工作負載來提高應用程序的性能。此外,數據平面開發套件(DPDK)提供了一個可編程架構,能夠優化應用程序與NIC通信的數據路徑。與此同時,它能夠更快地處理數據包,這對處理大量以太網數據包處理或高消息速率的應用程序(如虛擬化網絡功能)尤為有益。

Jarich表示:“運營商越來越樂于擁抱云計算,尤其是當他們搭建5G網絡并具有較大工作量時。移動分布式計算的可帶來更低的延遲,回程節省,更高的可管理性,因此深受運營商青睞。”

原文鏈接:https://www.sdxcentral.com/articles/analysis/data-center-networking-performance/2017/05/

關鍵字:數據中心GB網絡性能

本文摘自:訊石光通訊網

x 數據中心網絡性能:新應用下的新需求 掃一掃
分享本文到朋友圈
當前位置:數據中心行業動態 → 正文

數據中心網絡性能:新應用下的新需求

責任編輯:editor005 |來源:企業網D1Net  2017-06-07 15:34:42 本文摘自:訊石光通訊網

隨著機器學習,大數據,云計算和NFV不斷完善,數據中心網絡性能也隨之發展。亞馬遜,谷歌,百度和騰訊等大型云服務提供商已更新提供IT服務的方式,使之功能更強大,速度更敏捷,靈活性更高。這敲響了傳統運營商的警鐘,AT&T技術與運營首席策略官John Donovan 表示,AT&T致力于成為“世界上最具侵略性的IT公司”。OTT產品在業界的應用已變得普遍,應用和服務開發都需要創新完善。

他表示:“廠商正在逐漸成為競爭對手,過去的競爭對手變為開源開發等領域的合作伙伴。整個行業的工作方式正在發生變化。我們在標準機構這個平臺上共同管理,交流意見解決問題、制作產品。每個參與者都要在規則內,在競爭中合作。”

基于了未來發展和競爭現狀,諸如AT&T這樣的運營商已經擁抱NFV和分布式計算,以支持應用交付、機器學習和大數據分析來管理基礎設施。這些演變需要在數據中心不斷發展的前提下實現,以確保大型數據集和IO密集型工作負載的性能。

普通于云計算的企業工作負載是計算密集型的,但不一定是IO密集型。因此,使用NFV和云計算的通信應用程序需要更高要求的網絡結構。運用NFV的運營商,需要收集大量在網絡的虛擬和物理層的實時數據。

Global Data首席分析師Peter Jarich解釋說:“我們致力于實現可以查找任何字節,操作,捕獲,重寫;通過網絡端到端的每個數據包進行時間戳,對交換機中的緩沖進行連續的實時監控。”

性能杠桿:帶寬速度

隨著對海量數據傳輸和網絡瞬間數據傳輸的研究逐漸深入,我們發現影響系統性能的原因有兩個:原始吞吐量和延遲。

為了解決原始吞吐量的問題,大容量服務器正在重新定義數據中心內的架構和經濟模型。我們對提高服務器速度進行投資,使之從10Gb / s提高到25Gb / s以上,提高組織帶寬和消息速率升。跟10Gb / s的相比25Gb / s的帶寬提高2.5倍,成本在1.3X到1.5X之間。

Gartner數據中心融合和數據中心實踐副總裁兼分析師Joe Skorupa表示“從經濟角度來看,此舉意義重大,現行的25 Gb / s和50 Gb / s服務架構將轉換為50 Gb / s和100 Gb / s的網絡連接,與此同時光網絡成本也在下降 。40Gb / s連接需要四條10 Gb / s的通道,今天的50Gb / s連接由25b / s鏈路即可,速度的提升意味著價格下降,因為交換機端口和光纖成本都會下降。“

在數據中心互連方面,容量是影響性能的重要因素。例如,移動邊緣計算正在成為趨勢,因為運營商希望使用機器學習和人工智能來管理具有更多分布式節點的網絡。

Jarich指出:“過去,每兩百個基站都有一個EPC節點,所以在美國傳統的分組核心中將有十幾個站點。現在,您可能有成千上萬的站點,因為用戶需要更多的帶寬將其鏈接到核心。如果我們要在數據中心的網絡邊緣實施大量的分析和控制,那么我們必須快速提升分析速度和控制的靈活度。”

降低延遲的架構

考慮到延遲的因素,內部數據中心拓撲也在變化,老式的三層設計被leaf-spine的設計所取代,這種設計方式專門用于大數據行業,如不斷發展的電信數據中心。傳統的三層模式由核心路由器,聚合路由器和接入交換機組成,通過冗余路徑互連。但一般只有一個主要路由,只有在主要路由中斷的情況下才啟動備份路徑。

下一代配置中設有兩層leaf-spine。leaf層由連接到服務器,防火墻,負載平衡器和邊緣路由器等設備的接入交換機組成。spine層由執行路由的骨干交換機組成。每個leaf交換機與每個spine交換機互連,構成網格拓撲,這意味著所有設備的距離包含了信息傳播所需的可預測的延遲量。動態路由根據網絡變化確定和調整最佳路徑。

Skorupa說:“此舉顯著降低成本的同時提供了大量的橫截面帶寬,傳輸大量數據不成問題。我們相信很快也可以50 Gb / s服務器中得到應用。”

即使是在傳輸少量數據時,高速連接也十分重要。Skorupa解釋說:“當您的工作負載傳遞少量延遲敏感的數據時,從10 Gb / s轉為25 Gb / s就有了用武之地。 網絡延遲可能只占用了百分之五的時間,但是在10Gb / s連接線纜需要2.5%乃至更長的時間,轉換為25 Gb / s意味著從一個節點到另一個節點的所需時間的縮短。所有的這些都使得這些新應用程序更加易于運轉。”

從vSwitch卸載(offload)

影響分布式和虛擬化應用程序延遲的另一個問題是虛擬交換機(vSwitch)的性能不足。

Skorupa表示:“當您查看廣域網優化和虛擬防火墻等服務時,推出了大量的開放源代碼,這是vSwitch的一個性能問題。我們可以通過將一些交換功能遷移到網卡(NIC)中,或者購買更多的服務器,但這會對NFV的投資回報率產生負面影響。

offload的策略減輕了CPU的工作量。通過移動到支持高級內核旁路技術的技術棧實現最低延遲并顯著提高數據傳輸速率。

消息加速軟件等輔助技術有助于實現這一點,它可以降低總體延遲并最小化CPU工作負載來提高應用程序的性能。此外,數據平面開發套件(DPDK)提供了一個可編程架構,能夠優化應用程序與NIC通信的數據路徑。與此同時,它能夠更快地處理數據包,這對處理大量以太網數據包處理或高消息速率的應用程序(如虛擬化網絡功能)尤為有益。

Jarich表示:“運營商越來越樂于擁抱云計算,尤其是當他們搭建5G網絡并具有較大工作量時。移動分布式計算的可帶來更低的延遲,回程節省,更高的可管理性,因此深受運營商青睞。”

原文鏈接:https://www.sdxcentral.com/articles/analysis/data-center-networking-performance/2017/05/

關鍵字:數據中心GB網絡性能

本文摘自:訊石光通訊網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 集安市| 于田县| 石泉县| 合江县| 舞阳县| 苏尼特右旗| 阳泉市| 永年县| 登封市| 新昌县| 南丹县| 苍山县| 宣化县| 冀州市| 许昌市| 兴和县| 古蔺县| 泾源县| 安新县| 桓台县| 十堰市| 蕉岭县| 潮州市| 富民县| 芮城县| 桦南县| 长兴县| 靖江市| 平阳县| 兴和县| 汽车| 迭部县| 监利县| 新巴尔虎左旗| 留坝县| 明水县| 晋江市| 威远县| 德令哈市| 河池市| 旬邑县|