【編者按】在《InfoWorld》評選的年度最佳開源平臺、基礎設施、管理和編排軟件中,Container相關的軟件上榜無數,而OpenStack榜上無名,但這并不意味著IaaS的沒落,它仍是云的基石,只是在國外已經比較成熟。但在中國市場,說得上的OpenStack案例,往往來自互聯網公司,盡管有企業就緒的呼聲,傳統行業對OpenStack仍然觀望居多。本文介紹了IT大廠聯想集團基于OpenStack構建私有云的轉型實踐,從技術架構和業務應用層面,驗證了OpenStack的企業級高可用。盡管OpenStack承載的仍是互聯網業務,但聯想計劃在年內將20%的IT系統遷移到云,這是難能可貴的一大步。
在走向移動化、社交網絡的過程中,無論傳統的PC與手機都經歷著激烈的競爭及快速的技術轉變。在面臨市場的飛速演變與競爭中,聯想集團提出了從產品導向到用戶導向轉型的新戰略。而只有可快速迭代、彈性擴展的企業云平臺才能夠支撐聯想這種業務創新的需求。經過慎重研究與評估后,聯想IT選擇了基于OpenStack承載其“互聯網”戰略的企業云平臺。經過半年多的實踐,已經建設成為規模超過3000 Core的OpenStack生產級環境,數據以最高10TB/天的速度快速增長,并計劃在年內將10%~20% IT負載遷移到云環境。
轉型與云選型
以往的聯想的內部IT主要面向大型客戶以及渠道為主,系統架構以包括IBM Power小機、AIX、PowerVM、DB2及近年普遍使用的VMware虛擬化的傳統IT架構構建而成。在向互聯網企業轉型的過程中,首先在用戶數與交易量就遠遠無法支撐全新的B2C的業務。其次在成本方面,聯想以往的IT架構是大規模采用商用化的解決方案,可靠但不便擴展且成本昂貴。
此外,對于IT團隊的效率與安全合規性,傳統的IT架構仍然無法支撐起聯想面向電商與移動新業務轉型。2015年,聯想IT進入到基礎架構再造的階段——需要采用新的云計算平臺來支撐新的業務。
在選型過程中,聯想對主流的x86虛擬化技術、私有云平臺、公有云進行了全面分析與對比后,聯想從穩定性、可用性、開放性、以及生態系統的全面與活躍度等因素考慮,最終認為OpenStack云平臺技術可以滿足聯想的企業需求,聯想確定采用OpenStack作為其業務持續創新的基礎云平臺。
在OpenStack架構設計之初,聯想就考慮了容災方案,包括虛機、云硬盤、數據庫等,確保在發生故障時可以迅速切換,確保業務的高可靠性。
高可用的架構設計
在邏輯架構上,聯想企業云平臺完全通過軟件定義環境的方式來管理基礎架構,底層采用x86服務器以及10Gb網絡,引入互聯網式的監控運維解決方案,并用OpenStack平臺來管理所有資源。
聯想企業云邏輯架構
出于高可用角度、最大化的提升云平臺的系統效率,聯想設計了云平臺的物理架構,并采用高配置的服務器來構成計算、存儲與網絡一體的超融合系統,通過OpenStack整合為統一的資源池,將計算節點和存儲節點放在同一個物理節點上。
聯想企業云物理架構
硬件層面,雙路的System X3650服務器,以及四路的ThinkServer RQ940,成為了聯想企業云平臺的硬件支柱。每節點用5個SSD硬盤與12個SAS硬盤來構成存儲模塊;SSD不僅用來做存儲的緩沖,也是高性能存儲池資源;并通過VM訪問分布式存儲,來實現系統的高可用性。
為了將OpenStack提升至企業級服務水平,聯想在計算、網絡、存儲等方面解決了很多挑戰。
計算
在計算方面,聯想采用高密度的虛機部署方式,底層基于KVM 虛擬化技術,通過多種優化手段,發揮物理機最大性能,在計算存儲融合架構下對CPU,內存等硬件資源做隔離。最終實現在每臺雙路CPU計算節點上保證50+虛機仍能平穩高效運行。
另外,在云環境里面一般提倡應用程序自身高可用來應對硬件故障,但仍然有一些應用屬于傳統應用,對于單個主機的可用性還有要求。對于不能做高可用的傳統應用,聯想通過Compute HA技術實現了計算節點的高可用,通過多種檢測手段判定計算結點是否發生故障,將故障物理機上的虛機遷到其它可用的物理機上,整個過程無人值守,最大程度減少因為物理機故障導致的業務中斷。
網絡
l 網絡隔離
使用不同網卡,不同交換機或不同VLAN將各種網絡隔離,如:單獨的OpenStack管理網,虛機生產網絡,存儲網絡,公網,PXE網絡。避免網絡相互干擾,達到提高整體帶寬和更好監控網絡的目的。
聯想OpenStack企業云平臺網絡架構
l 多Public網絡
通過多個Public網絡實現網絡靈活性,便于管理安全策略。比如聯通Public網絡,電信Public網絡,辦公Public網絡。
l 網絡及優化
使用VLAN網絡模式,與傳統數據中心網絡更好的整合,通過優化VLAN數據包處理,達到很好的網絡數據包處理能力,讓虛機網絡帶寬接近物理網絡帶寬。
l 雙網卡綁定,多交換機
通過雙網卡綁定到不同的交換機達到物理網絡的高可用。
l 網絡節點HA
通過多個網絡節點,實現公網的負載均衡及HA,實現高性能和高可用, 網絡節點使用Router級別的Active/Standby方式實現HA,使用獨立的網絡路由監控服務確保網絡HA的穩定性。
存儲
聯想OpenStack云平臺采用Ceph作為統一存儲后端,其中Glance鏡像、Nova虛擬機系統盤、Cinder云硬盤的數據存儲由Ceph RBD提供,利用Ceph的Copy on Write特性,通過修改OpenStack代碼,可做到秒級虛擬機部署。
Ceph作為統一存儲后端,其性能無疑是企業核心應用是否虛擬化、云化的關鍵指標之一。在計算存儲共同運行的超融合部署架構中,存儲性能調優既要最大化存儲性能、又要保證計算和存儲資源的隔離,保證系統的穩定性。針對如下圖所示的整個IO棧,聯想從下往上,對各層進行了優化:
l 網絡方面
打開Jumbo幀,提高數據傳輸效率;同時可采用10Gb以太網絡來承載Ceph Cluster網絡的流量,提高Ceph數據復制效率。
l 性能方面
利用SSD固態盤作為Ceph OSD日志盤來提高整個集群IO性能,來達到關鍵業務(如電商系統的數據庫業務等)對性能的要求,做到性能和成本的最佳平衡點。SSD 具有低功耗,響應時間短,高IOPS,高吞吐量的特點。在Ceph的日志系統,對應的是多線程訪問,采用SSD來代替機械硬盤,可以充分發揮,SSD隨機讀寫響應時間短,高IO吞吐量的特點。通過調整IO調度策略,使之更適合于SSD盤,降低了整個IO的延時。
l 合理規劃
根據服務器上虛擬機的密度,合理規劃超融合節點下Ceph OSD的數量,并為OSD預分配CPU和內存等資源,同時,為保證系統穩定性,采用cgroup、taskset等工具對QEMU-KVM和Ceph OSD進行資源隔離。
l 參數調優
Ceph參數調優方面,通過調整Journal,FileStore的默認隊列、OSD的OP線程數等參數,可有效提高性能。其它更多調優參數,可通過迭代測試,找到當前硬件環境的最佳參數。
l 數據高可用
數據高可用方面,除了OpenStack已有的數據保護措施之外,聯想未來規劃中的兩地三中心也做了數據災備方案的準備:
通過專有的低延遲的光纖專線,數據可同步存儲在同城備份中心,可異步存儲在異地災備中心,最大限度保證數據安全性。
AD集成
此外,聯想還將自身的業務需求融入到了OpenStack企業云平臺中,作為一個擁有數萬名員工的大企業,需要通過AD活動目錄來進行認證,員工就不用單獨再建用戶、記口令等;通過協作方的定制開發,聯想已將AD功能融入OpenStack企業云平臺之中。
應用成果
在構建好整個OpenStack企業云平臺之后,聯想面向“互聯網”轉型的關鍵才得以展開,電子商務、大數據分析、IM、手機在線業務支撐等互聯網業務,從測試到生產真正的由聯想企業云平臺支撐起來。從創新應用的測試團隊反饋來看,聯想企業云平臺目前運行良好。
在聯想OpenStack企業云平臺的建設過程中,聯想選擇了國內的OpenStack公司提供專業咨詢與服務,幫助聯想建設初期平臺,培養了OpenStack專家。對聯想而言,選擇OpenStack合作伙伴的主要考慮因素,就是對社區的兼容和不斷的升級,以及企業級服務經驗。