精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心云計算與數據中心 → 正文

云計算將給數據中心網絡帶來什么

責任編輯:sjia |來源:企業網D1Net  2012-08-07 08:58:06 原創文章 企業網D1Net

云計算基礎設施的關鍵技術包括服務器、網絡、存儲和數據中心的其他相關技術。近幾年服務器、存儲等部分都取得了很多的改進,比如服務器計算到虛擬計算,虛擬存儲的演進等。反觀數據中心網絡的發展,卻略顯力不從心。但這樣的力不從心正在得到本質上的改善。

云抽象化的可以看做一個龐大的網絡系統,在云內包含上千甚至是上萬臺服務器,而虛擬化技術的普遍應用使得實際網絡節點的數量更加的巨大,所以用于連接云數據中心內部和云數據中心間網絡成為實現計算和存儲能力的關鍵環節。因為企業在邁進云計算的過程中,選擇服務器虛擬化以提升效率、解放CPU,釋放各種計算資源,除了在CPU和芯片組提高虛擬機的運行效率,同時通過解決整體基礎架構的連接性問題,來處理虛擬機間的通信,這也正是數據中心網絡的價值所在。

數據中心網絡是云計算的核心嗎?

那么,你可能會問,云計算基礎架構中網絡到底是不是核心呢?說到底這要看站在哪個設備商的角度去看了。但數據中心網絡之所以面臨變革,還是云計算所導致的。

直到今天云計算也依然是不斷進化中的概念,但云描述了一個由資源池化的計算、網絡、存儲等組成的服務、應用和基礎設施使用的面貌,同時激發出了IT基礎設施協作、敏捷、擴展性、可用性,以及通過優化、更有效率的計算來降低成本的潛能。讓資源按需索取,彈性的供應,像用電一樣方便。盡管云太過理想化,但這并不影響企業趨之若鶩。可喜的是云計算的最佳實踐已經離我們越來越近。

根據最近IDC發布的中國云計算市場的研究報告顯示,2011年中國用戶為建設云計算基礎架構的投資已經達到2.86億美元,同比增長42.0%。IDC預計,中國云計算基礎架構市場還將保持高速發展,到2016年其規模將超過10億美元。IDC注意到最終用戶在對私有云計算基礎架構的建設方面發展迅速。越來越多的大中型企業正在建設或考慮建設私有云計算平臺,從而提高IT基礎架構的效率,以更好的支持業務發展。云計算基礎架構已成為中國大中型企業下一代數據中心(NGDC)建設的主要目標。

眾所周知,云計算的概念最早是由Google提出的,搜索引擎需要數據中心內部大量的服務器來進行統一計算來支撐關鍵詞的搜索,導致數據中心內部,也就是服務器之間的流量交互增多,這就給數據中心網絡內部的通信提出了更高的帶寬和更低延遲的要求,這就是為什么高端的數據中心網絡交換設備會首先被互聯網服務提供商所考慮。

此外,為了提升服務器的使用效率,虛擬化技術切斷了應用、操作系統與物理硬件的直接聯系,將更多的應用負荷加載到更少的服務器上,于是不僅僅在虛擬機的通信上給網絡帶來的變化,對服務器硬件能力的極限使用,也給網絡的帶寬提升提出了新的要求。當然還包括虛擬機的動態遷移,也給網絡管理維護帶來了困擾。

總結以上小節,數據中心網絡是不是云計算數據中心關鍵環節,仁者見仁,要看你所站的角度對待。企業如果要獲得云計算所帶來的價值和效益,那么數據中心網絡必須要提供提升帶寬和降低延遲的能力,處理好虛擬機通信的管理問題,能夠適應未來服務器虛擬機規模的增加。

數據中心網絡不得不面對的問題

那么數據中心網絡要具備支撐云計算最佳實踐的能力,就需要解決計算、存儲、數據網絡融合,數據中心內部東西向(服務器與服務器之間)流量的承載以及虛擬機流量的接入與控制等問題。這三個方面是數據中心網絡邁進云計算過程中,業界已經基本達成的共識,雖然在一些技術標準確定,以及產品的大規模商用方面還存在許多爭議,但這并不影響廠商通過開放或私有的技術標準來實現和解決這些問題。

先來看看網絡與存儲的融合,傳統的數據中心中存在三張網,數據中心的前端訪問接口通常采用以太網進行互聯而成,構成了一張高速運轉的數據網絡。數據中心后端的存儲更多的是采用NAS、FC SAN,服務器的并行計算則大多采用Infiniband和以太網,多張網絡的并存提高了建設和運行管理的成本,為了適應云計算成本的需要,網絡的三網融合就成為了必然趨勢。

在數據中心網絡融合方面相關的技術標準,廠商也業界也基本達成了共識,比如確定的40G/100G技術標準,FCoE以太網光纖通道協議和DCB數據中心橋接(Data Center Bridging),雖然這些重要的網絡融合標準和協議已經被廣泛的使用在現有的產品中,但產品的成熟和大規模商用,市場還要等待一段時間。

在數據中心內部橫向流量的承載方面。數據中心網絡中原本分為三層:核心層,匯聚層和接入層,萬兆及以上的以太網交換機有較高的無阻塞吞吐量,允許用戶把服務器機架和柜頂式交換機直接連接到核心網絡,從而不再需要匯聚層。

再者在云計算數據中心中,出于虛擬機熱遷移的需求,如果匯聚層仍然采用二層網絡組網,二層網絡的規模將大大增加,原有的STP生成樹協議將造成網絡鏈路的大量浪費,這就是為什么傳統的三層網絡一直運行良好,但在今天面臨服務器整合、虛擬機時則顯得有些過時的原因。

根據這樣的需求,主流的網絡設備廠商都提出了針對大規模二層組網的方案。兩大標準組織IETF和IEEE分別提出了TRILL和SPB標準技術,主流的網絡廠商,也根據自身技術的發展路線加入了不同的陣營,以推動相關標準的制定和商業化進程。而它們的總體思路相近,即通過對IS-IS協議的拓展,在二層轉發中進入路由技術,實現對網絡鏈路的有效利用,以簡化網絡,支持虛擬機的移動性,降低運營成本。目前大二層網絡技術標準的博弈逐漸明朗,業界已經對通過TRILL標準實現大二層組網逐漸達成了共識。

最后,我們一起看看虛擬機流量的接入與控制的問題。由于虛擬機的引入,虛擬機間流量的交換深入到了網卡內部進行,使得原來服務器與網絡設備之間清晰的網絡界限被打破,于是在數據中心的服務器的網絡接入層出現了新的虛擬網絡橋接層,通過軟件的VSwitch實現。雖然實現簡單,但其占用CPU資源導致了一系列的問題;

此外也可以借助SR-IOV特性的網絡來實現硬件的虛擬網絡橋接,CPU開銷得到了改善,但虛擬機的流量管理等問題仍然存在。于是爭論又來了,針對虛擬網絡交換出現出現了眾多的技術體系,有的目前仍然在不斷的進化過程中,但有的已經被叫停,它們包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag。

目前802.1Qbg標準已經獲得了主流廠商的支持,并可提供基于草案標準的解決方案,802.1Qbh目前已被叫停,802.1BR處于起步階段,思科VN-Tag是其私有的技術標準。

數據中心網絡變革異彩紛呈

數據中心網絡是實現云基礎設施的關鍵環節,目前針對數據中心網絡的演進,以思科、華為、瞻博網絡等為主的網絡設備供應商,都提出了針對大二層網絡、融合、虛擬網絡橋接的架構和解決方案,不管是思科的Fabricpath,華為的Cloud Fabric,還是瞻博的Qfabric都瞄準了如何在企業邁進云計算的進程中,讓企業最快最平穩的實現數據中心網絡的過度,并將企業云計算基礎架構的效率最大化,并顯著降低TCO,并使用到云計算所帶來的靈活、彈性、按需服務的業務模式,從而在未來的商業化發展中游刃有余。

目前思科的數據中心網絡已經發展到3.0階段,整體基于其全新定義的云享戰略的統一數據中心部分,強調融合、可拓展性和智能;華為在2012年正式開啟了它的數據中心網絡產品解決方案和架構理念的全球之旅,Cloud Fabric解決方案遵循實現數據中心網絡彈性擴展,簡單易用和靈活開放的核心價值,特別是在性能方面更是高舉高打,開啟了數據中心網絡產品T級的先河;

瞻博網絡的QFabric在2011年提出,它的最大亮點就是在大二層網絡實現上的突破,主要特征是簡化、共享、安全和自動化。當然并不僅僅是這些,H3C的云就緒網絡、博科的VCS等技術體系和產品也是數據中心網絡最有力的競爭者。

在許多技術標準角力,廠商技術產品逐漸趨于成熟,企業在盡力找尋基礎架構調整優化和成熟業務模式契合的最佳方法的當下,一場滿足云計算模式的數據中心網絡變革的劇情異彩紛呈。

關鍵字:數據中心云計算

原創文章 企業網D1Net

x 云計算將給數據中心網絡帶來什么 掃一掃
分享本文到朋友圈
當前位置:數據中心云計算與數據中心 → 正文

云計算將給數據中心網絡帶來什么

責任編輯:sjia |來源:企業網D1Net  2012-08-07 08:58:06 原創文章 企業網D1Net

云計算基礎設施的關鍵技術包括服務器、網絡、存儲和數據中心的其他相關技術。近幾年服務器、存儲等部分都取得了很多的改進,比如服務器計算到虛擬計算,虛擬存儲的演進等。反觀數據中心網絡的發展,卻略顯力不從心。但這樣的力不從心正在得到本質上的改善。

云抽象化的可以看做一個龐大的網絡系統,在云內包含上千甚至是上萬臺服務器,而虛擬化技術的普遍應用使得實際網絡節點的數量更加的巨大,所以用于連接云數據中心內部和云數據中心間網絡成為實現計算和存儲能力的關鍵環節。因為企業在邁進云計算的過程中,選擇服務器虛擬化以提升效率、解放CPU,釋放各種計算資源,除了在CPU和芯片組提高虛擬機的運行效率,同時通過解決整體基礎架構的連接性問題,來處理虛擬機間的通信,這也正是數據中心網絡的價值所在。

數據中心網絡是云計算的核心嗎?

那么,你可能會問,云計算基礎架構中網絡到底是不是核心呢?說到底這要看站在哪個設備商的角度去看了。但數據中心網絡之所以面臨變革,還是云計算所導致的。

直到今天云計算也依然是不斷進化中的概念,但云描述了一個由資源池化的計算、網絡、存儲等組成的服務、應用和基礎設施使用的面貌,同時激發出了IT基礎設施協作、敏捷、擴展性、可用性,以及通過優化、更有效率的計算來降低成本的潛能。讓資源按需索取,彈性的供應,像用電一樣方便。盡管云太過理想化,但這并不影響企業趨之若鶩。可喜的是云計算的最佳實踐已經離我們越來越近。

根據最近IDC發布的中國云計算市場的研究報告顯示,2011年中國用戶為建設云計算基礎架構的投資已經達到2.86億美元,同比增長42.0%。IDC預計,中國云計算基礎架構市場還將保持高速發展,到2016年其規模將超過10億美元。IDC注意到最終用戶在對私有云計算基礎架構的建設方面發展迅速。越來越多的大中型企業正在建設或考慮建設私有云計算平臺,從而提高IT基礎架構的效率,以更好的支持業務發展。云計算基礎架構已成為中國大中型企業下一代數據中心(NGDC)建設的主要目標。

眾所周知,云計算的概念最早是由Google提出的,搜索引擎需要數據中心內部大量的服務器來進行統一計算來支撐關鍵詞的搜索,導致數據中心內部,也就是服務器之間的流量交互增多,這就給數據中心網絡內部的通信提出了更高的帶寬和更低延遲的要求,這就是為什么高端的數據中心網絡交換設備會首先被互聯網服務提供商所考慮。

此外,為了提升服務器的使用效率,虛擬化技術切斷了應用、操作系統與物理硬件的直接聯系,將更多的應用負荷加載到更少的服務器上,于是不僅僅在虛擬機的通信上給網絡帶來的變化,對服務器硬件能力的極限使用,也給網絡的帶寬提升提出了新的要求。當然還包括虛擬機的動態遷移,也給網絡管理維護帶來了困擾。

總結以上小節,數據中心網絡是不是云計算數據中心關鍵環節,仁者見仁,要看你所站的角度對待。企業如果要獲得云計算所帶來的價值和效益,那么數據中心網絡必須要提供提升帶寬和降低延遲的能力,處理好虛擬機通信的管理問題,能夠適應未來服務器虛擬機規模的增加。

數據中心網絡不得不面對的問題

那么數據中心網絡要具備支撐云計算最佳實踐的能力,就需要解決計算、存儲、數據網絡融合,數據中心內部東西向(服務器與服務器之間)流量的承載以及虛擬機流量的接入與控制等問題。這三個方面是數據中心網絡邁進云計算過程中,業界已經基本達成的共識,雖然在一些技術標準確定,以及產品的大規模商用方面還存在許多爭議,但這并不影響廠商通過開放或私有的技術標準來實現和解決這些問題。

先來看看網絡與存儲的融合,傳統的數據中心中存在三張網,數據中心的前端訪問接口通常采用以太網進行互聯而成,構成了一張高速運轉的數據網絡。數據中心后端的存儲更多的是采用NAS、FC SAN,服務器的并行計算則大多采用Infiniband和以太網,多張網絡的并存提高了建設和運行管理的成本,為了適應云計算成本的需要,網絡的三網融合就成為了必然趨勢。

在數據中心網絡融合方面相關的技術標準,廠商也業界也基本達成了共識,比如確定的40G/100G技術標準,FCoE以太網光纖通道協議和DCB數據中心橋接(Data Center Bridging),雖然這些重要的網絡融合標準和協議已經被廣泛的使用在現有的產品中,但產品的成熟和大規模商用,市場還要等待一段時間。

在數據中心內部橫向流量的承載方面。數據中心網絡中原本分為三層:核心層,匯聚層和接入層,萬兆及以上的以太網交換機有較高的無阻塞吞吐量,允許用戶把服務器機架和柜頂式交換機直接連接到核心網絡,從而不再需要匯聚層。

再者在云計算數據中心中,出于虛擬機熱遷移的需求,如果匯聚層仍然采用二層網絡組網,二層網絡的規模將大大增加,原有的STP生成樹協議將造成網絡鏈路的大量浪費,這就是為什么傳統的三層網絡一直運行良好,但在今天面臨服務器整合、虛擬機時則顯得有些過時的原因。

根據這樣的需求,主流的網絡設備廠商都提出了針對大規模二層組網的方案。兩大標準組織IETF和IEEE分別提出了TRILL和SPB標準技術,主流的網絡廠商,也根據自身技術的發展路線加入了不同的陣營,以推動相關標準的制定和商業化進程。而它們的總體思路相近,即通過對IS-IS協議的拓展,在二層轉發中進入路由技術,實現對網絡鏈路的有效利用,以簡化網絡,支持虛擬機的移動性,降低運營成本。目前大二層網絡技術標準的博弈逐漸明朗,業界已經對通過TRILL標準實現大二層組網逐漸達成了共識。

最后,我們一起看看虛擬機流量的接入與控制的問題。由于虛擬機的引入,虛擬機間流量的交換深入到了網卡內部進行,使得原來服務器與網絡設備之間清晰的網絡界限被打破,于是在數據中心的服務器的網絡接入層出現了新的虛擬網絡橋接層,通過軟件的VSwitch實現。雖然實現簡單,但其占用CPU資源導致了一系列的問題;

此外也可以借助SR-IOV特性的網絡來實現硬件的虛擬網絡橋接,CPU開銷得到了改善,但虛擬機的流量管理等問題仍然存在。于是爭論又來了,針對虛擬網絡交換出現出現了眾多的技術體系,有的目前仍然在不斷的進化過程中,但有的已經被叫停,它們包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag。

目前802.1Qbg標準已經獲得了主流廠商的支持,并可提供基于草案標準的解決方案,802.1Qbh目前已被叫停,802.1BR處于起步階段,思科VN-Tag是其私有的技術標準。

數據中心網絡變革異彩紛呈

數據中心網絡是實現云基礎設施的關鍵環節,目前針對數據中心網絡的演進,以思科、華為、瞻博網絡等為主的網絡設備供應商,都提出了針對大二層網絡、融合、虛擬網絡橋接的架構和解決方案,不管是思科的Fabricpath,華為的Cloud Fabric,還是瞻博的Qfabric都瞄準了如何在企業邁進云計算的進程中,讓企業最快最平穩的實現數據中心網絡的過度,并將企業云計算基礎架構的效率最大化,并顯著降低TCO,并使用到云計算所帶來的靈活、彈性、按需服務的業務模式,從而在未來的商業化發展中游刃有余。

目前思科的數據中心網絡已經發展到3.0階段,整體基于其全新定義的云享戰略的統一數據中心部分,強調融合、可拓展性和智能;華為在2012年正式開啟了它的數據中心網絡產品解決方案和架構理念的全球之旅,Cloud Fabric解決方案遵循實現數據中心網絡彈性擴展,簡單易用和靈活開放的核心價值,特別是在性能方面更是高舉高打,開啟了數據中心網絡產品T級的先河;

瞻博網絡的QFabric在2011年提出,它的最大亮點就是在大二層網絡實現上的突破,主要特征是簡化、共享、安全和自動化。當然并不僅僅是這些,H3C的云就緒網絡、博科的VCS等技術體系和產品也是數據中心網絡最有力的競爭者。

在許多技術標準角力,廠商技術產品逐漸趨于成熟,企業在盡力找尋基礎架構調整優化和成熟業務模式契合的最佳方法的當下,一場滿足云計算模式的數據中心網絡變革的劇情異彩紛呈。

關鍵字:數據中心云計算

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 沾益县| 江山市| 宜宾县| 铜鼓县| 黄陵县| 全南县| 南乐县| 虞城县| 洞口县| 衡阳市| 泰顺县| 聊城市| 淳安县| 乐东| 来宾市| 奉化市| 河池市| 乌鲁木齐县| 巧家县| 宁津县| 铜川市| 佛坪县| 景宁| 玉树县| 中卫市| 嘉峪关市| 德兴市| 淄博市| 公主岭市| 南宫市| 伊吾县| 钦州市| 偃师市| 多伦县| 敦煌市| 潜山县| 蓝山县| 沙坪坝区| 万荣县| 上栗县| 福州市|