精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心行業動態 → 正文

下一代數據中心規模將縮小 需降低相關風險與問題

責任編輯:editor04 |來源:企業網D1Net  2014-11-17 23:47:03 本文摘自:TechTarget中國

現代數據中心正深深地感受到密集計算所帶來的影響。計算硬件、系統、虛擬化、網絡策略和支持技術不斷發展,更高的計算性能可以被配置在與幾年前一樣的物理空間架構內。提高密度有助于降低采購成本與能耗。但高密度計算同樣也存在一些問題,諸如潛在的管理挑戰與更高的硬件依賴。

下一代數據中心規模會縮小得更厲害,IT專業人員必須向前看,在受益于更高計算密度時,降低相關風險與問題。

空前密集的硬件

沒有什么比高密度對計算硬件,如服務器、網絡與存儲設備部署的影響更明顯了。想想傳統處理器的密度。單核、雙核以及四核處理器已經讓位給八核甚至更多核的組件。例如Intel Xeon E7-8857提供了12個核心,而Xeon E7-8880L提供了15核。這樣對諸如IBM System x3850 X6的四插槽服務器,可配置最高達60處理器核心,部署數十臺虛擬機。甚至如PowerEdge M620都可以支持兩個Xeon E5-2695 12核處理器,達到每刀片24核。

這一趨勢同樣也蔓延到服務器內存。內存模塊充滿了新功能,機架式服務器內存可以根據模塊與功能選型(如備用內存、內存鏡像等功能),擴展到128GB至超過1TB的容量。刀片服務器通常的內存規模為每刀片32GB到64GB總容量。當然,內存還可以通過使用相同型號的刀片機箱存儲器快速增加,可支持6、8甚至更多刀片。

存儲也變得越大越快,內存與存儲之間的界限變得越來越模糊,而且閃存宣稱其將在服務器架構中占據一個永久地位。比如,固態硬盤(SSD)設備已經在高性能存儲層(有時候也被稱為第0層)扮演著新角色,它采用傳統的SATA/SAS硬盤接口,容量規模從100GB到1TB。

為了更好的存儲性能,服務器可以選配基于PCIe固態硬盤加速器(SSA)的設備,如Fusion-io的ioDrive2產品,每單元可以配置高達3TB閃存存儲。當峰值存儲性能成為關鍵時,IT專家們開始考慮TB級別的內存通道存儲(MCS)設備,如Diablo Technologies DDR3閃存存儲模塊,該產品可以配合常規DIMM內存模塊共享內存使用。這個爆炸性的革命數據中心硬件并不完美。例如,增加高端內存容量會增加服務器成本,并降低性能。類似性能損失同樣發生在采用非內置內存刀片服務器上,因為數據傳輸需要通過整個背板而有所延時。IT專家說,這種潛在問題正使傳統系統的性能瓶頸從CPU擴展限制轉向內存與存儲問題,而且資源分配策略必須修改,以不斷適應諸如數據中心密度增加的各種變化。

“我們最近面臨的新問題是管理存儲層的IOPS,”Reach IPS公司IT主管兼顧問委員會成員Tim Noble說,他還指出在虛擬機管理程序層,使用厚存儲配置與自動精簡配置會引發存儲緩存問題,進而需要對存儲層級進行重新劃分。

“當掛起寫緩存滿了,所有連接到陣列上的系統都可能崩潰或需要恢復,”Noble說。不過,盡管存有潛在隱患,潛臺詞是明確無誤的:先進的硬件與虛擬化組合,可以讓更多的工作負載在更少的服務器與更小空間內運行。

“我正在規劃新的數據中心,所有業務都將只運行在一個單刀片機箱上,”Magpul Industries Corp.公司的IT主管Chris Steffen說,“其中將包含近200個虛擬機,內部網絡與SAN都將放入一個機架。十年前,這樣的規模需要近2000平方英尺數據中心空間。”

更高的帶寬與連接性

討論數據中心密度必須包括網絡的發展。傳統以太網速度已經能夠達到10GbE、40GbE甚至100GbE,只有少數組織采用更快的標準——而且主要用于超大規模數據中心的網絡骨干上。“我實在不明白升級到更快的傳統以太網有什么好處,”Steffen說,“這些錢可以更好地花在企業其他投資上。”

相反,大多數數據中心持續采用各服務器1GbE的部署方案,著眼于更大的服務器連通性與網路虛擬化。例如IBM System X3950 X6提供兩個擴展槽,可以容納多個網絡適配器,如兩個4*1千兆以太網是配置(每臺服務器最多可以配置8個1GbE以太網端口)。同樣大多數常規機架服務器都可以安裝基于PCIe的多端口網卡。當服務器承載大量虛擬機時,通常才會去增加網絡端口數量,而不是升級更快標準的以太網卡。多端口可以提升服務器可靠性,防止出現單點故障影響網絡連通性。每個網卡通常都配置在不同交換機上,確保不會因為交換機故障而影響所有通信。不僅如此,多個網卡可以通過綁定技術來提供更高帶寬,以滿足工作負載需要。多網絡接口還可以實現故障切換,允許工作負載在某個端口貨交換機故障時,切換到可用的網口或交換機上。

另外兩個新興技術將影響數據中心網絡密度與管理,“軟件定義網絡(SDN)與網絡功能虛擬化(NFV)。SDN將交換機邏輯與交換機端口去耦合,允許對交換機進行集中行為分析、控制并(在理想情況下)優化。網絡可以“學習”更有效或更高效的網絡通信路徑,并修改交換機配置實現變更。若實施得當,SDN的交通流量優化可以實現在沒有更大帶寬的條件下細分流量,提高網絡利用率。

通過比較,NFV利用標準服務器與交換機,使用虛擬化模擬復雜網絡功能或應用程序。NFV可以提供包括網絡地址轉換(NAT)、域名服務(DNS)、防火墻、入侵檢測與防御以及緩存等功能。其目標是利用服務器的標準功能,替代昂貴的專有網絡設備,并實現快速部署與可擴展,這些功能非常適用于新興云計算和其他自助服務環境。

撇開網速復雜性,配置對于確保日益密集的網絡連接最佳性能是十分重要的。“服務器與交換機之間的配置不當,可能導致性能問題或更糟,”Noble說,這一影響在工作負載遷移到更高性能服務器或計算高峰期需要額外資源時,會變得尤其突出。

如何散熱

隨著數據中心密度增加,IT專家們開始遇到由計算熱點或不良通風而造成的發熱問題。但是,現代數據中心很少遇到發熱問題——這主要歸因于過去幾年中所開發的能源效率與熱量管理技術。關鍵因素之一就是現代服務器與計算組件經過改良設計。以處理器為例,它通常是發熱最高的部件之一,但新型處理器設計與模具制造技術基本能夠保持處理器溫度持平,即使核心數成倍增加也不受影響。我們以Intel Xeon E7-4809六核處理器為例,功耗為105瓦特,而Xeon E7-8880L 15核處理器功耗同樣為105瓦特。提高時鐘率到最快的Xeon E7-4890 15核處理器最高能耗也僅有155瓦特。

同時,數據中心運營溫度也有所提升,因為IT人員發現數據中心溫度在80或90華氏度時,對設備運行并沒有任何明顯影響。為了應付更高溫度,服務器的熱管理設計也有進一步改善,加入了熱傳感器與主動變速散熱系統,從各個單元帶走熱量。“最密集的硬件平臺移動空氣就像噴氣發動機一樣,以此確保其冷卻,”Steffen說。

虛擬化是對讓熱量從服務器中移出的完美補充,可以大大降低整體服務器數量,以此也降低了需要從數據中心內排出的空氣總量。類似VMware的分布式資源調度程序(DRS)與分布式電源管理(DPM)技術甚至可以根據需求在服務器之間移動負載,關閉不需要的服務器。最終結果是,數據中心不再依賴于龐大、耗電的機械空調系統,不需要為巨大空間內滿負荷運行的硬件進行冷卻。相反,高整合度的系統有利于容器與冷卻基礎設施更有效地冷卻機架,甚至可以采用機架內冷卻單元。

這樣的整合與銜接也并非完美,IT專家指出,糟糕的設計與改造可能產生無法預料的熱點。“即使是四級數據中心,也無法保證其設計的100%正確、減輕冷卻等經營風險,”Noble說。隨著數據中心密度上升,監控系統與數據中心基礎設施管理(DCIM)技術在確保熱管理、能效與資源使用效益計算上就能產生客觀的價值了。

注意軟件授權限制 數據中心的密度肯定會增加,因為虛擬化可以最大化利用先進的X86和ARM處理器。但是,專家也指出,硬件的密度與可用率可能受到軟件授權限制,而且存在軟件維護周期的限制。

“虛擬化服務器會消耗更多軟件許可,因為它們更容易啟動,保持未使用的情況還可能更長,”Noble說,“但它們仍然需要軟件維護和補丁更新,不管它們是否有在使用。”隨著數據中心增長與工作負載密度增加,許可授權與補丁通常可以通過系統管理工具解決,這些工具還可以協助IT人員進行虛擬機生命周期與補丁管理,緩解工作壓力。

關鍵字:數據中心密度散熱

本文摘自:TechTarget中國

x 下一代數據中心規模將縮小 需降低相關風險與問題 掃一掃
分享本文到朋友圈
當前位置:數據中心行業動態 → 正文

下一代數據中心規模將縮小 需降低相關風險與問題

責任編輯:editor04 |來源:企業網D1Net  2014-11-17 23:47:03 本文摘自:TechTarget中國

現代數據中心正深深地感受到密集計算所帶來的影響。計算硬件、系統、虛擬化、網絡策略和支持技術不斷發展,更高的計算性能可以被配置在與幾年前一樣的物理空間架構內。提高密度有助于降低采購成本與能耗。但高密度計算同樣也存在一些問題,諸如潛在的管理挑戰與更高的硬件依賴。

下一代數據中心規模會縮小得更厲害,IT專業人員必須向前看,在受益于更高計算密度時,降低相關風險與問題。

空前密集的硬件

沒有什么比高密度對計算硬件,如服務器、網絡與存儲設備部署的影響更明顯了。想想傳統處理器的密度。單核、雙核以及四核處理器已經讓位給八核甚至更多核的組件。例如Intel Xeon E7-8857提供了12個核心,而Xeon E7-8880L提供了15核。這樣對諸如IBM System x3850 X6的四插槽服務器,可配置最高達60處理器核心,部署數十臺虛擬機。甚至如PowerEdge M620都可以支持兩個Xeon E5-2695 12核處理器,達到每刀片24核。

這一趨勢同樣也蔓延到服務器內存。內存模塊充滿了新功能,機架式服務器內存可以根據模塊與功能選型(如備用內存、內存鏡像等功能),擴展到128GB至超過1TB的容量。刀片服務器通常的內存規模為每刀片32GB到64GB總容量。當然,內存還可以通過使用相同型號的刀片機箱存儲器快速增加,可支持6、8甚至更多刀片。

存儲也變得越大越快,內存與存儲之間的界限變得越來越模糊,而且閃存宣稱其將在服務器架構中占據一個永久地位。比如,固態硬盤(SSD)設備已經在高性能存儲層(有時候也被稱為第0層)扮演著新角色,它采用傳統的SATA/SAS硬盤接口,容量規模從100GB到1TB。

為了更好的存儲性能,服務器可以選配基于PCIe固態硬盤加速器(SSA)的設備,如Fusion-io的ioDrive2產品,每單元可以配置高達3TB閃存存儲。當峰值存儲性能成為關鍵時,IT專家們開始考慮TB級別的內存通道存儲(MCS)設備,如Diablo Technologies DDR3閃存存儲模塊,該產品可以配合常規DIMM內存模塊共享內存使用。這個爆炸性的革命數據中心硬件并不完美。例如,增加高端內存容量會增加服務器成本,并降低性能。類似性能損失同樣發生在采用非內置內存刀片服務器上,因為數據傳輸需要通過整個背板而有所延時。IT專家說,這種潛在問題正使傳統系統的性能瓶頸從CPU擴展限制轉向內存與存儲問題,而且資源分配策略必須修改,以不斷適應諸如數據中心密度增加的各種變化。

“我們最近面臨的新問題是管理存儲層的IOPS,”Reach IPS公司IT主管兼顧問委員會成員Tim Noble說,他還指出在虛擬機管理程序層,使用厚存儲配置與自動精簡配置會引發存儲緩存問題,進而需要對存儲層級進行重新劃分。

“當掛起寫緩存滿了,所有連接到陣列上的系統都可能崩潰或需要恢復,”Noble說。不過,盡管存有潛在隱患,潛臺詞是明確無誤的:先進的硬件與虛擬化組合,可以讓更多的工作負載在更少的服務器與更小空間內運行。

“我正在規劃新的數據中心,所有業務都將只運行在一個單刀片機箱上,”Magpul Industries Corp.公司的IT主管Chris Steffen說,“其中將包含近200個虛擬機,內部網絡與SAN都將放入一個機架。十年前,這樣的規模需要近2000平方英尺數據中心空間。”

更高的帶寬與連接性

討論數據中心密度必須包括網絡的發展。傳統以太網速度已經能夠達到10GbE、40GbE甚至100GbE,只有少數組織采用更快的標準——而且主要用于超大規模數據中心的網絡骨干上。“我實在不明白升級到更快的傳統以太網有什么好處,”Steffen說,“這些錢可以更好地花在企業其他投資上。”

相反,大多數數據中心持續采用各服務器1GbE的部署方案,著眼于更大的服務器連通性與網路虛擬化。例如IBM System X3950 X6提供兩個擴展槽,可以容納多個網絡適配器,如兩個4*1千兆以太網是配置(每臺服務器最多可以配置8個1GbE以太網端口)。同樣大多數常規機架服務器都可以安裝基于PCIe的多端口網卡。當服務器承載大量虛擬機時,通常才會去增加網絡端口數量,而不是升級更快標準的以太網卡。多端口可以提升服務器可靠性,防止出現單點故障影響網絡連通性。每個網卡通常都配置在不同交換機上,確保不會因為交換機故障而影響所有通信。不僅如此,多個網卡可以通過綁定技術來提供更高帶寬,以滿足工作負載需要。多網絡接口還可以實現故障切換,允許工作負載在某個端口貨交換機故障時,切換到可用的網口或交換機上。

另外兩個新興技術將影響數據中心網絡密度與管理,“軟件定義網絡(SDN)與網絡功能虛擬化(NFV)。SDN將交換機邏輯與交換機端口去耦合,允許對交換機進行集中行為分析、控制并(在理想情況下)優化。網絡可以“學習”更有效或更高效的網絡通信路徑,并修改交換機配置實現變更。若實施得當,SDN的交通流量優化可以實現在沒有更大帶寬的條件下細分流量,提高網絡利用率。

通過比較,NFV利用標準服務器與交換機,使用虛擬化模擬復雜網絡功能或應用程序。NFV可以提供包括網絡地址轉換(NAT)、域名服務(DNS)、防火墻、入侵檢測與防御以及緩存等功能。其目標是利用服務器的標準功能,替代昂貴的專有網絡設備,并實現快速部署與可擴展,這些功能非常適用于新興云計算和其他自助服務環境。

撇開網速復雜性,配置對于確保日益密集的網絡連接最佳性能是十分重要的。“服務器與交換機之間的配置不當,可能導致性能問題或更糟,”Noble說,這一影響在工作負載遷移到更高性能服務器或計算高峰期需要額外資源時,會變得尤其突出。

如何散熱

隨著數據中心密度增加,IT專家們開始遇到由計算熱點或不良通風而造成的發熱問題。但是,現代數據中心很少遇到發熱問題——這主要歸因于過去幾年中所開發的能源效率與熱量管理技術。關鍵因素之一就是現代服務器與計算組件經過改良設計。以處理器為例,它通常是發熱最高的部件之一,但新型處理器設計與模具制造技術基本能夠保持處理器溫度持平,即使核心數成倍增加也不受影響。我們以Intel Xeon E7-4809六核處理器為例,功耗為105瓦特,而Xeon E7-8880L 15核處理器功耗同樣為105瓦特。提高時鐘率到最快的Xeon E7-4890 15核處理器最高能耗也僅有155瓦特。

同時,數據中心運營溫度也有所提升,因為IT人員發現數據中心溫度在80或90華氏度時,對設備運行并沒有任何明顯影響。為了應付更高溫度,服務器的熱管理設計也有進一步改善,加入了熱傳感器與主動變速散熱系統,從各個單元帶走熱量。“最密集的硬件平臺移動空氣就像噴氣發動機一樣,以此確保其冷卻,”Steffen說。

虛擬化是對讓熱量從服務器中移出的完美補充,可以大大降低整體服務器數量,以此也降低了需要從數據中心內排出的空氣總量。類似VMware的分布式資源調度程序(DRS)與分布式電源管理(DPM)技術甚至可以根據需求在服務器之間移動負載,關閉不需要的服務器。最終結果是,數據中心不再依賴于龐大、耗電的機械空調系統,不需要為巨大空間內滿負荷運行的硬件進行冷卻。相反,高整合度的系統有利于容器與冷卻基礎設施更有效地冷卻機架,甚至可以采用機架內冷卻單元。

這樣的整合與銜接也并非完美,IT專家指出,糟糕的設計與改造可能產生無法預料的熱點。“即使是四級數據中心,也無法保證其設計的100%正確、減輕冷卻等經營風險,”Noble說。隨著數據中心密度上升,監控系統與數據中心基礎設施管理(DCIM)技術在確保熱管理、能效與資源使用效益計算上就能產生客觀的價值了。

注意軟件授權限制 數據中心的密度肯定會增加,因為虛擬化可以最大化利用先進的X86和ARM處理器。但是,專家也指出,硬件的密度與可用率可能受到軟件授權限制,而且存在軟件維護周期的限制。

“虛擬化服務器會消耗更多軟件許可,因為它們更容易啟動,保持未使用的情況還可能更長,”Noble說,“但它們仍然需要軟件維護和補丁更新,不管它們是否有在使用。”隨著數據中心增長與工作負載密度增加,許可授權與補丁通常可以通過系統管理工具解決,這些工具還可以協助IT人員進行虛擬機生命周期與補丁管理,緩解工作壓力。

關鍵字:數據中心密度散熱

本文摘自:TechTarget中國

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 两当县| 苏尼特右旗| 宝丰县| 宁陵县| 禹州市| 疏附县| 长乐市| 温州市| 元氏县| 武山县| 英吉沙县| 阳城县| 定襄县| 江北区| 延寿县| 唐山市| 抚顺市| 连平县| 鄂托克前旗| 长治县| 新巴尔虎右旗| 盐亭县| 东乡| 临汾市| 西宁市| 吉隆县| 钦州市| 平阴县| 霞浦县| 白城市| 天等县| 高邮市| 巴青县| 准格尔旗| 富平县| 长治市| 甘洛县| 宣威市| 东光县| 喀什市| 莎车县|