數據中心一般的我們可以理解為其是由機架式服務器部署,用來滿足不同的工作負載,包括前端的網絡到后端的數據庫。然而,這種靠工作負載去定義一個被部署的硬件類型的時代已經過去。數據中心正面臨著新一輪的變革。
如今,人們普遍認為,當今的數據中心的處理器能力已經非常豐盈,用于計算的網絡以及存儲被證明是目前數據中心最大的挑戰。如今的其一二需要更大的存儲容量以及更快的存儲和檢索數據的能力,以及不同計算系統之間的快速傳輸的能力。
昔日的數據中心
20世紀90年代是互聯網行業的泡沫時期,那個時候的數據中心面臨的挑戰是如何部署足夠的處理能力,以滿足迅速增長的網絡受眾用戶的需求。很有趣的是,在1997年,基于x86的服務器并不存在,但是在十年之內,x86處理器已經在數據中心占據了多數。
動態生成的網頁服務結合沉重的數據庫服務器是當時的主要采用的上幾乎,如active server pages和php。這樣的技術就需要大量的數據密集型的基礎設施快速建立來滿足需求。
在2000年代的中期,計算能力出現了井噴式的增長,企業開始轉型虛擬化,以提高cpu利用率和整合硬件。虛擬提供給企業在一個單一的物理機器上,可以有效的運行多個虛擬機的能力。
虛擬化突出了企業的靈活性和多余的處理能力的管理需求,因為管理程序,所有虛擬化平臺的都會自帶的一部分性能開銷。
然而,隨著處理器廠商不懈的追求處理器的高性能,如今,虛擬化的性能開銷已經成為一個可以忽略不計的成本。
新的工作負載要求不同的數據中心
隨著處理器性能的提升,如今數據中心的挑戰已經開始轉移到了數據中心內高效的運送數據的挑戰,數據中心內互聯的各種系統是一種綜合性能。同時能效和預算挑戰也都是一項艱巨的任務。
雖然以太網將繼續在數據中心發揮顯著的作用,但新的工作負載需要一些新的技術的部署來滿足新的需求。數據中心在規模部署的時候,而不應該堅持一個統一的尺寸在滿足所有的模式,其應該根據需求來滿足需求。
新型數據中心
統一的模式既不可行,也不能夠有效的利用資源在整個數據中心中。
向外擴展的工作負載,如hadoop驅動的高密度計算和seamicro公司sm15000可容納幾十個處理器在單一機箱中的服務器。該技術是唯一可行與有效的互連,自由部署,將所有這些處理器鏈接在一起。
然而,互連必須做的不僅僅是在一個單一的機箱內處理器連接在一起。還需要滿足在不同機箱之間的數據傳輸。
由于不懈的處理器的發展和新的工作負載的組合,數據中心不再受處理能力的限制。展望未來,系統的性能將通過處理器的性能來確定,連同用于鏈接的處理器,服務器和存儲,需要智能系統設計的互連。