“高效制勝、擴展無限—Dell HPC 行業應用實踐交流會”于2012年6月20日在北京悠唐皇冠假日酒店盛大召開,戴爾技術專家及行業技術精英和與會者切磋交流,共商HPC發展之大計。
以下是現場快遞。(聲明:本稿件來源為現場速記,可能有筆誤和別字,僅供參考)
主持人:非常感謝張博士的精彩演講,張博士從中國TOP100排行榜談起,從各個領域都做了簡要的分析,但是相信在座各位非常關注,更關心的是我們中國的用戶更加個性化的需求,尤其是對高性能計算需求非常大的這些行業,包括政府、教育、醫療。我們如何在我們個性化的需求情況下,如何找到適合自己的解決方案,如何落地,相信是各位最關心的。接下來就有請Dell高性能計算產品技術顧問凌巍才給我們帶來高性能計算的發展趨勢及Dell解決方案。
Dell高性能計算產品技術顧問凌巍才
凌巍才:尊敬的各位來賓大家上午好,非常感謝大家來參加Dell高性能計算技術研討會,剛才李總和張博士非常精彩的介紹了Dell公司HPC的發展策略,張總也介紹了發展的趨勢,在我的片子里我會主要介紹一下Dell公司的解決方案。
首先自我介紹一下,我是凌巍才,我是負責高性能計算的工程師。我講的內容主要分四個部分,第一部分是高性能計算的發展趨勢,主要是針對Dell來講的,第二就是HPC的策略和我們怎么樣進入這個市場,進入市場的方法。第三部分主要介紹一下,進入這個方法其中我們詳細的一些解決方案,最后介紹一下我們的成功案例。
我們在談HPC的時候通常都要談它的發展趨勢,每個企業,每個組織,或者每個單位,如果他想進入這個行業他都會談這個趨勢,而且每個單位談的角度也不同。那么Dell公司怎么來看這個高性能計算的發展趨勢,這就是我們在做高性能計算的時候我們看到的趨勢。首先我們說他的CPU,高性能計算主要是用CPU來做計算,CPU發展是非??斓?,通過過去幾年的發展,我們看到隨著一些IT巨頭的合并,這種快速的發展,X86這種平臺會在HPC市場越來越多的參與進來。還涌現了一些新的處理器的技術,但是不知道會參與到這個HPC市場,用來做網絡和移動終端的處理器,我們看的話,就是看CPU的趨勢。
內存也是非常重要的,我們在做HPC的話,內存的帶寬和內存的延時,都是某些特定應用所主要考量的指標。我們在內存的帶寬上面,我們也在監控,現在新的基于X86我們每個CPU所連的內存帶寬已經有四個通道,主頻已經到了1.6G赫茲,延遲更小,做計算的時候會更快的向CPU提供數據。還有就是加速器,GPU,GPU發展的也非常快,很多大型的HPC都在采用GPU的計算,GPU是特別擅長,它做一些浮點運算的拿過來,他叫多數據的算法,他這個是脫離傳統的CPU的編程和計算方法。
PCIE的帶寬也很多,3.0可以到達128每秒。數據也是海量的增長,這個數據的增長,數據增長會比摩爾定律還要高很多倍,還有軟件,包括管理軟件,包括云,都是基于軟件的發展,也是非常的快,非常的多,軟件也非常全。那么供電和散熱也會在下面的圖介紹一下。新的處理器,在高性能計算測試和在HPL這方面測試耗電的比較,這張圖1,我們是用Dell公司第11代服務器做出來的高性能計算HPL的性能測試結果,620測試出來的結果,平均要高出來2.5倍,所以說用新一代的Dell620的話,新的服務器采用新的處理器技術性能高了很多。大家可以看一下,這邊的功耗,在相同功率的貢獻情況下,新的620,性能也比以前提升了兩倍以上。
雙處理器集群平均內存,現在處理器核數不斷增加,他對于每個結點的內存也是在不斷的增加的,平均來說,對單個核來講,內存基本上是保持不變的。
下面這張圖是我們采用加速器的比例,這張圖的話,我們是從這個月做的研究調查圖,在采用GPU用戶中大概現在的比例是29%,這個比例會低于TOP500里面的大型數據,大型集群的話,他會采用較多的GPU的加速運算技術。再看一下,我們PCIE的話,如果是第3代和第2代,而且采用的是不同的技術第一個是數據傳輸率的帶寬,一個是延遲,大家可以看到采用FDR,他的性能會增加169%。如果采用新的FDR的技術,并且采用PCIE第3代,性能會有非常大的提升。那么在延遲的話,也是FDR延遲0.77微秒。
我們的策略,我們是采用開放的平臺,一個標準的架構,以及很高的性價比,這是我們的策略,所以說我們在進入高性能計算這個是市場,我們堅持的策略是用開放的,像X86處理器,以及市場上可以采購得到的高性能內存,都是非常標準的,非常開放的,而且是高性價比的產品。
下面介紹一下Dell公司的HPC,我們的策略有了,那么我們怎么樣進入這個市場,我們進入這個市場的方法有三種,第一種就是和我們的用戶來進行合作,如果我們用戶在這個領域里面,他知道他要做什么,那么我們就會跟用戶進行合作。第二部分我們就是要和我們的搭檔合作,他在研究領域有一定的專利技術或者技能專長。第三部分我們提供一個簡單的硬件平臺給用戶。
用戶協作和合作伙伴,我們是怎么和用戶進行協作,比如德克薩斯的高級計算機中心,這個用戶他知道他要做什么,他有多大的需求,我們就會和他來合作,來做這樣的系統。另外我們還有一個和劍橋大學,劍橋大學和Dell公司合作成立了高性能計算中心,我們可以在這個中心上面來為劍橋大學提供他們自己的計算需求,同時還可以向市場提供包括測評、新產品技術采納,以及程序的修改調優等等服務。
另外我們怎么和合作伙伴進行合作呢,我們要和包括結構力學,流體動力學,基因比對,以及數字內容的生成等等,我們和這些軟件廠商合作走向市場。我現在主要介紹,除此之外我們第三種辦法,我們用非常簡單的硬件設備,標準的開放的,向廣大的市場提供解決方案。
Dell的HPC方案結構,也是非常的簡單,它是模塊化的,除非特別大的應用,很多的應用,它的線性增長率是有一定限制的,他可能在一千個核之內,他并行的效率提升會非常顯著,但是超過一千核以后,效率就不顯著了,在這種情況下我們就把這種不同的應用放在不同的,我們叫單元格上,然后包括應用與應用之間的通訊,我們也根據應用需求來判定采用什么樣的互聯網絡技術,以及存儲,我們都會根據用戶需求來定。存儲單元架構,不同的HPC的方案,有可能存儲單元架構是不一樣的,通常我們在這個領域里面我們把它分成三個層級。
下面介紹一下Dell公司其中兩個部分,一個是計算部分,一個是軟件部分。這張圖大家可以看得到,上面是所有Dell服務器系列,這邊是機架式服務器,機架式服務器面積最大,這邊應用的類型,包括單排的應用,包括高可用性集群,包括虛擬服務器池,高性能計算,包括云,縱軸是不同的應用。然后這邊是我們的出貨量,或者是我們的市場占有率,機架式服務器是最多的,然后這邊是刀片服務器,這邊是云系列服務器,然后這邊是我們為客戶定制的服務器。
下面向大家介紹一下Dell公司的刀片服務器,這是刀片一千億的機箱,這個機箱底下有兩個KBM接口,這邊有一個顯示控制器,這里面可以放服務器,我們這里面的服務器有各種型號供選擇,后面我們可以由6個IO插槽,可以插不同的插槽,包括以太網,包括存儲的光纖通道,后面還有一些電源和風扇,可以通過遠程來進行管理。
這張圖片,所有刀片服務器的不同型號,我們這里面可以看到有M620,M610,M710,所有這些都是半高的,里面可以插16臺服務器,這都是雙路的。下面都是全高的,勸告有M610,還有M710,這邊是全高的四路的,有AMD,還有Intel處理器的。我們還有新出的一種刀片服務器,我們可以裝32個刀片,在10U高的紀香里面。細節我就不講了。
下面我介紹一下我們云系列的服務器,我們這邊有單排的,還有共享架構的,包括他共享的是電源和風扇以及網絡、連接,還有管理、控制這都是共享的。我們云系列的服務器,它共享的是電源和風扇,其他的包括網絡、控制、管理都是單獨管理的。所以說這個就是共享了。然后這邊的話,我們還有很密集的云系列的服務器,那么后面的話,我們會介紹一下C系列,其中我們云系列的C6100我們共享基礎架構的服務器,他可以放4臺服務器,每個系統里面可以有兩個Intel處理器,他這里面可以插12個內存,前面可以放24塊2.5寸的硬盤,或者12塊3.5寸的硬盤。這是第2代PCIE接口,他的管理口,有熱插拔電源和風扇。
下面我介紹一下我們第12代云系列服務器,PCIE是第3代的,這是他整個更新的地方,2U的服務器里面可以放兩個也可以放四個,這個是采用Intel的ABS技術,等于是高級的制定技術,他可以運行八個浮點運算。C6145他可以到達128個核,我在以前的時候,曾經做過一個中科院數學所的,四個大機柜,一共才64個CPU,這一個系統就已經是4個機柜的兩倍了,可以看得到,現在HPC技術發展非常快。
這個系列是我們專門用來做云計算,他是高密度的服務器,存儲包括計算都在一起,4U可以接十臺系統,他的系統也是非常的好。我們還有一個客戶定制的系統,我們剛才說了有很多處理器的技術,我們現在也在緊跟著這個,我們用ARM Servers,他這個里面也是采用領先的技術,等于是我們非常勇于創新的企業,我們也在嘗試用新的CPU用新的服務器系統,我們針對的用戶是互聯網用戶,或者是我們的TACC。
剛才簡要介紹了一下服務器,下面介紹一下管理軟件,監控軟件我們用idrac7,這是我做了一個截圖,除了對服務器進行控制以外,還可以對電源有一個設定,可以極大的降低功耗。
軟件上面我們有一個軟件站,我們有操作系統,集群管理軟件,調度軟件以及各種各樣的應用,我們在這個軟件部分,我們可以和很多的廠商來合作,我們是一個非常開放,非常標準的平臺,很多基于X86技術的這些軟件,我們都可以用。
下面介紹一下GPU,我們有很全的產品系列,我們可以外部接也可以在內部接,不同的連接方法有不同的連接比例。我主要介紹一下外部連接非常有特色的產品,C410x,PCIE的GPU擴展箱,他是一個純的PCIE的擴展箱,它是把GPU從服務器里面拿出來,單獨的放在一個擴展箱里面,這樣的話,特別適合于那種就是說,他對這個應用的測試比較靈活,如果你現在一個服務器可以接一個GPU,那么也可以接兩個GPU,也可以接不同的GPU來進行配置。這只是其中的一個案例,我們在用C410x和6100來連接的時候我們做了4/1的三明治,我們有三種配置,這只是其中一個。第一種配置是兩個C6100中間加一個C410x,這是第一種配置,真正的全三明治。他這里面可以放16塊GPU,C6100里面可以放4個系統,16塊GPU,每4個GPU連接到其中一個結點上面來。
下面介紹一下這種連接方式,對于應用有什么樣的提升嗎?再一個多GPU應用的分析,HAMER,黃顏色是一臺主機對一個GPU,綠顏色是一臺主機對兩個GPU,灰顏色是一臺主機對四個GPU,它的線性增長率非常好,接4個GPU的時候,性能可以增加了7.2倍。
介紹完了計算和軟件的部分,下面介紹一下存儲部分,我在這里簡要介紹一下我們HPC存儲,他是一個架構和方案,我們把HPC存儲分成三部分,包括快速存儲,用戶存儲和歸檔存儲。
我們在針對不同的用戶級別的話,我們采用不同的存儲解決方案,在小部門的集群下面,我們用NSS系統,我們在做大系統的時候,我們用我們快速的系統。
我們是怎么來做存儲的,我們存儲也是遵循了Dell公司的策略,采用開放的,標準的架構,我們這種架構就是用標準的服務器和開放的存儲,把它連接起來,我們可以配置不同的軟件,實現不同的功能。
這個是我們和我們的合作伙伴配置的事例,我們經過嚴格測試從小到大,不同的規模我們有不同的配置方案。我們Lustre文件系統,它的性能委員好。
我們還可以采用PVFS架構,它可以縱向擴展和橫向擴展,他在縱向擴展時候就可以在我們存儲模塊上面,用一臺服務器下掛存儲,然后配置文件系統,如果橫向擴展的話,我們就可以把多個模塊連接在一起,這個文件系統是把MDS數據平分到很多不同的結點上面來了,而Lustre是集中的,在大型的HPC上面用得非常多,在前三十個HPC里面他有13個。15個都是用的Lustre。
我們都知道,做HPC存儲的時候,主要是計算結點和存儲結點之間的帶寬,我們這個里面采用特殊的配置,一共配置了五塊盤,不同盤有不同的功能,磁盤托架之間做條帶化處理了。
剛才介紹的是存儲部分,下面介紹一下互連部分,我們在做HPC,現在有的網絡技術和性能,有千兆網,有萬兆網,還有DDR和QDR,很多不同應用會用不同的網絡連接系統,通常在地震數據處理,還有生命科學的一些應用領域都用以太網,在其他的科學研究,一些特定的CAE和CFD用互聯網技術。
Dell有非常全的網絡產品,我們在做HPC計算的時候,我們都是千兆介入,我們可以用無阻塞的產品,在做管理的時候,刀片可以配M6220。
我們做了很多成功案例,國內包括清華大學生命科學研究院,這邊是我們國內的一些案例。下面是國外的案例。由于時間關系,我的演講就到這里,謝謝大家!