企業數據中心當前所采用的標準化服務器是浪費資源的,但未來的系統或將是可配置的,以便能夠更好的匹配企業工作負載的需求。
根據一些市場調研的估計,當前在全球范圍內,云計算的高速增長已然引起了數據中心業界的高度關注。畢竟,這些數據中心目前已經消耗了至少7%的全球電力供應,并且其耗電量還在進一步的持續增長。這導致IT行業亟待尋求提高數據中心基礎設施效率的有效方法,其中甚至包括一些重新考慮計算機和數據中心構建方式方面的嘗試努力。
2018年1月在英國曼徹斯特召開的計算機系統與高性能計算領域的頂級盛會HiPEAC 2018上,來自IBM公司的研究人員發表了一篇關于分解式計算機體系架構的論文。這項工作是由歐盟所資助的dReDBox項目的一部分,而該項目又是Horizo??n 2020研究和創新計劃的一部分。
服務器解耦意味著將服務器分解為其組成的計算和內存資源,以便根據每項工作負載的具體需要來分配服務器資源。目前,服務器是IT基礎架構的基本組成部分,但一項工作負載無法使用比單臺服務器更多的內存或CPU資源,也無法輕松地從服務器外部共享任何備用資源。
“部署到數據中心的工作負載往往在其使用資源的方式上存在很大的不成比例。有些工作負載會消耗大量的CPU資源,但并不需要太多的內存;而另一方面,其他的某些工作負載則將消耗比CPU的使用多出高達4個數量級的內存資源。”來自IBM公司的研究工程師Andrea Reale博士說。
在整個企業數據中心內,這意味著一些服務器將用到他們所有的CPU資源,但仍有大量的空閑內存;而對于其他一些服務器則情況正好相反,即使這些資源其實并沒有被充分使用,但這些資源也會繼續消耗電力資源。在一處典型的數據中心中,大約可能有16%的CPU資源和30%的內存資源會被白白浪費掉了。
但是,如果你企業的數據中心可以在軟件控制下調解服務器資源,以便讓您企業的每項特定工作負載擁有盡可能多的CPU和具體所需要的內存資源的話,那豈不是更好嗎?
計算和內存的分離dReDBox項目旨在通過使用稱為“塊(brick)”的分解計算和內存模塊來解決這個問題。他們通過高速鏈接連接在一起,并且讓足夠的計算塊與足夠的內存塊配對,以滿足在既定時刻運行的任何工作負載的要求。從理論上講,這使得企業數據中心的服務器可以針對特定應用程序進行資源的配置調解,以分配盡可能多的CPU核心和內存資源給工作負載,滿足作業所需,然后可以將這些資源返回到資源池中,并在工作負載不再需要這些資源時將資源用于其他目的。
作為其研究項目的一部分,dRedBox團隊已經構建了一款演示系統,其中brick塊是圍繞基于ARM的片上系統(SoC)芯片Xilinx Zynq Ultrascale +構建的。計算brick塊擁有少量的本地內存,而內存brick塊擁有更多數量的DDR4內存,可用于計算brick塊。
在dRedBox體系架構中還有另外兩種類型的brick塊;加速器塊可以提供GPU或FPGA硬件來加速應用程序(如機器學習或分析);以及一個控制器塊,其是一種管理所有其他塊的特殊塊。
為了適應匹配現有的數據中心基礎設施,dRedBox團隊設想任何生產環境中部署的塊都應安裝在類似標準機架式服務器系統的2U機柜中。這些機柜外殼可能包含任何塊類混合。
這種模塊化安排的優點在于:其還可以輕松實現升級;企業數據中心的操作運營人員們可以簡單地采用具備更高性能的新的計算塊來替換,或者將內存塊替換為具有更大內存容量的塊,而不會讓垃圾填滿整個服務器。
然而,整個架構的關鍵部分是將塊連接在一起的互連技術。這必須是高速和低延遲性的,否則當計算塊讀取存儲在內存塊中的數據時性能會受到影響。
低延遲架構對于其演示系統,dRedBox團隊在機箱內使用一款電氣交換機矩陣連接塊,而光學交換機矩陣連接到機架中另一個機箱內的塊。對于IT環境而言,這些交換矩陣通常是電路交換的,這意味著它們在配置塊之后會創建專用通道,不像以太網那樣的分組交換網絡,后者會根據數據分組中的地址將數據路由到其目的地。
根據Reale的介紹,選擇這種安排恰恰是因為需要低延遲性。
“通過電路交換與分組交換相比,當從計算機塊到內存塊時,可以讓內存請求的延遲低得多。”他說。
實際上,Reale聲稱即使使用研究級硬件,dRedBox系統也能夠以遠遠低于1微秒的端到端延遲時間所需對遠程存儲器的訪問,并且生產級處理器芯片以全時鐘速度運行,性能會更高。
在計算和內存塊之間建立電路交換鏈路的另一個優點是,其與軟件看起來完全一樣,就像內存直接連接到CPU的標準服務器一樣。
“我們正在使用一些現有的操作系??統擴展,比如在Linux中對于非統一內存的NUMA支持,以代表已知體系架構的應用程序的內存距離,而對于其他應用程序則是未知的,他們可以認為是本地內存,不需要知道內存在哪里。”Reale說。
演示設置的規模相對較小,僅包含三個托盤,但dRedBox團隊顯然可以通過運行實際的云工作負載來對其進行測試,盡管這些測試的結果目前尚未公布。
“我們不想使用基準測試,因為我們需要高保真度的結果,所以我們實際上使用了一組真實的云應用程序,包括數據分析和在線事務處理,內存緩存,并使用消息代理來測試這方面的努力將如何影響到物聯網市場。”Reale說。
根據dRedBox團隊的介紹,演示系統至少可以在性能方面與標準的橫向擴展服務器部署相匹配,同時將所使用的資源減少25%到50%.在項目結束時,該團隊希望能夠展示整個dRedBox硬件機架的性能如何。
與此同時,架構的任何生產版本都需要適應現有的基礎架構,特別是管理工具。為此,dRedBox控制面板將通過API與常用業務流程管理安排工具進行交互。
“控制面板或業務流程管理面板基本上是用于連接CPU和內存的一些帶外服務器,并且這個接口是作為一款API公開的,特別是REST API,并且可以由數據中心的運營商要么手動使用或者要么更有可能實現集成——正如我們已經在項目中所做的那樣——如果您想部署虛擬機或為容器部署Kubernetes,則需要像OpenStack這樣的更高級的業務流程管理安排軟件。”Reale解釋說。
惠普企業公司、英特爾也在致力于服務器解耦工作事實上,dRedBox團隊并不是唯一尋求通過服務器解耦以作為解決現有數據中心架構所面臨的諸多問題的可能解決方案的團隊。
另一個團隊是HPE的The Machine研究項目,該項目團隊主要設計用于提供可支持大數據分析等應用程序的非常大的內存空間的系統。他們還具有獨立的計算和內存模塊,可以安裝在基本上是機架式服務器的機箱集群中,并使用內存結構進行互連。在去年推出的演示系統中,HPE使用光鏈路連接了40個包含160TB共享內存的節點。
與此同時,英特爾公司也推出了該公司自己的稱為RSD(Rack Scale Design)架構的項目計劃。該項目計劃從相似的目標開始,但迄今為止,英特爾一直致力于從服務器節點分解存儲,而不是分離計算和內存。英特爾還專注于創建名為Redfish的API管理,旨在提供機架級別規模的資源發現和管理,并支持來自不同供應商的RSD產品之間的互操作性。
英特爾的RSD項目計劃正在逐步發展,以便讓戴爾EMC,愛立信和Supermicro等廠商能夠以他們感到滿意的速度將技術整合到他們的產品中。同時,HPE的新型計算機運算架構The Machine所開發的技術和概念很可能會被注入到其他平臺,例如美國能源部的Exascale Computing項目,HPE也參與其中。
至于dRedBox項目,這是多家企業組織之間的協作努力,同時還包括多所大學及其分拆公司,并且涵蓋了合作伙伴之間的多項知識產權協議。然而,該團隊所期望的是,當項目結束時,其將能夠提供一些可以部署在目標環境中的東西,但這仍然需要付諸額外的努力。
由于可以僅僅使用25%到50%的資源來運行工作負載,基于解耦架構的系統應該能夠吸引更多數據中心客戶。但是,正如我們以前所經常看到的那樣,杰出的想法和理念其實并不總是能夠推翻現狀;您是否還記得IBM公司的PureSystems解決方案的案例呢?
通常情況下,供應商們往往都會發現投資于任何與他們目前向客戶交付的產品差距過大的產品均會面臨著過大的風險,而且,這將需要一家具有像英特爾這樣級別影響力的企業才能真正將新技術推向市場。因此,真正可組合的硬件是否真的能夠被推向市場還有待觀察。也許只有當諸如谷歌、Facebook和亞馬遜這樣的超大規模企業用戶對這方面表現出足夠的興趣時,我們才可以期待其將有可能成為現實。