精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

IoT前沿 | 流數據處理難?一切都在計劃之中

責任編輯:cres

2019-04-12 15:09:50

摘自:戴爾易安信解決方案

IoT前沿 | 流數據處理難?一切都在計劃之中。

IoT前沿 | 流數據處理難?一切都在計劃之中

各位讀者,《IoT前沿》欄目已經進行了三期啦~

之前的內容里,我們已經對Pravega的特性和優勢進行了介紹,相信大家對它已經有了一個完整的了解。

現在問題來了,既然Pravega歪瑞酷,能夠解決未來流數據處理的難題,那么我要什么時候才能用上這項技術呢?

咳咳,雖然正式推出市場還在戴爾易安信的計劃之中...

但是,Pravega的發行版已經開放,可以供大家下載使用了!

俗話說“眼過百遍不如動手一遍”,Pravega說得再好,那也是王婆賣瓜,不如讓各位讀者親自動手部署一番,因此在今天的這篇文章里,我們將為大家詳細介紹Pravega的部署方法。

Pravega從入門到精通,從這里開始~

作者簡介

滕昱

滕昱:就職于Dell EMC中國研發集團,非結構化數據存儲部門團隊并擔任軟件開發總監。2007年加入Dell EMC以后一直專注于分布式存儲領域。參加并領導了中國研發團隊參與兩代Dell EMC對象存儲產品的研發工作并取得商業上成功。從2017年開始,兼任Streaming存儲和實時計算系統的設計開發與領導工作。

劉晶晶

劉晶晶:現就職于DellEMC,10 年+分布式、搜索和推薦系統開發以及架構設計經驗,現從事流存儲相關的設計與開發工作。

周煜敏

周煜敏:復旦大學計算機專業研究生,從本科起就參與Dell EMC分布式對象存儲的實習工作。現參與Flink相關領域研發工作。

Pravega屬于戴爾科技集團IoT戰略下的一個子項目。該項目是從0開始構建,用于存儲和分析來自各種物聯網終端的大量數據,旨在實現實時決策。其結合了戴爾易安信PowerEdge服務器,并無縫集成到非結構化數據產品組合Isilon和Elastic Cloud Storage(ECS)中,同時擁抱Flink生態,以此為用戶提供IoT所需的關鍵平臺。

戴爾科技集團IoT解決方案集合了戴爾科技家族的力量,覆蓋從邊緣到核心再到云端

1云原生與Pravega

隨著容器技術和云服務的發展,Kubernetes和云原生已經重定義了應用設計和開發的一些方面。

Pravega從設計之初就是云原生應用,可以在各大公有/私有云平臺上進行部署和運行。

• 它的組件都是以低耦合的微服務形式存在,通過運行多個服務實例保證高可用性。

• 每個服務實例運行于單獨的容器中,使用容器實現服務的相互隔離。

• 可以使用容器編排工具(如Kubernetes)進行統一的服務發現、治理和編排,提高資源利用率,降低運營成本。

同時,Pravega團隊通過第三方資源機制擴展了Kubernetes的API,開發了能夠使得Pravega集群的創建、配置和管理更高效和自動化的Operator,包括 Pravega Operator和Zookeeper Operator,通過他們可以使得Pravega在Kubernetes環境中快速創建集群和動態擴展。這些Operator以及其他相關的容器鏡像會上傳至Pravega在DockerHub官方的鏡像倉庫:https://hub.docker.com/u/pravega中,用戶也可以直接拉取使用,源代碼也在GitHub網站:https://github.com/pravega上公開。

2Pravega核心組件及交互

Pravega能夠以一致的方式靈活地存儲不斷變化的流數據,主要得益于控制面(Control Plane)和數據面(Data Plane)的有機結合。兩者都由低耦合的分布式微服務組件管理,前者主要由控制器(Controller)實現,后者主要由段存儲器(Segment Store)實現,它們通常以多實例的形式運行在集群中。除此以外,一個完整的Pravage集群還包括一組Zookeeper實例,一組Bookkeeper實例,以及用于提供第二層的存儲的服務或接口。 它們的關系如圖:

控制器是Pravega的控制中心,對外提供 JAVA 和 REST 接口,接收客戶端對于Stream的創建、刪除、讀寫等請求;對內負責Segment的管理和集群的管理。客戶端對于Stream的讀寫請求在控制器中被分拆為對Segment的請求,控制器確定需要使用哪些Segment,從而分發給相應的段存儲器來操作。

段存儲器(Segment Store)提供了Segment的管理入口,實現了Segment的創建、刪除、修改和讀取功能。數據被存儲在一層和二層存儲上,由段存儲器負責數據的存儲和降層操作。其中一層存儲由低延遲的Bookkeeper擔任,通常運行于集群的內部;二層存儲由容量大且成本較低存儲的擔任,一般運行于集群的外部。

Zookeeper做為集群的協調者, 它維護可用的控制器和段存儲器列表,控制器會監聽它們的變化。當一個控制器從集群中刪除時,它的工作會被其他的控制器自動接管。當段存儲器發生變化時,控制器也會將段容器重新映射以保證系統的正常運行。

3Pravega的部署

了解Pravega最好方法就是自己動手部署一個,然后跑一下Pravega示例程序:

https://github.com/pravega/pravega-samples

單機版部署

單機版部署是最快捷的方式,你只需要從Pravega Release Github:https://github.com/pravega/pravega/releases下載一個Pravega發行版,解壓后運行:

bin/pravega-standalone

單機版部署只能用來學習和測試,不能用于生產環境中,程序一旦關閉所有的數據也會丟失。

集群部署

Pravega可以運行于多個主機所組成的集群中,也可以運行于云平臺中。這里我們只介紹Kubernetes環境下的部署,其他的方式參考:

http://pravega.io/docs/latest/deployment/deployment/

運行之前,需要保證你擁有一套Kubernetes環境,可以是公有云上的Kubernetes服務(如GKE,Amazon EKS),或者是分布式集群上自建的Kubernetes環境(如通過Kubeadm),以及命令行工具kubectl,helm。

1首先,在你的Kubernetes環境中創建一個Zookeeper集群。

Zookeeper集群可以使用Zookeeper Operator來創建,你可以直接使用deploy文件夾中的資源描述文件來部署。

git clone https://github.com/pravega/zookeeper-operator && cd zookeeper-operator

# 創建名為 ZookeeperCluster 的自定義資源定義(custom resource definition)

kubectl create -f deploy/crds/zookeeper_v1beta1_zookeepercluster_crd.yaml

# 創建 Zookeeper Operator 的服務賬號、角色和角色綁定,并部署 Zookeeper Operator

kubectl create -f deploy/default_nsall_ns/rbac.yaml

kubectl create -f deploy/default_nsall_ns/operator.yaml

# 部署 Zookeeper 集群,根據該資源描述文件,將會創建有三個節點的 Zookeeper 集群

kubectl create -f deploy/crds/zookeeper_v1beta1_zookeepercluster_cr.yaml

2然后,為Pravega第二層存儲創建單獨的持久化存儲卷(PV)及持久化存儲卷聲明(PVC)。

這里我們使用NFS Server Provisioner:https://github.com/kubernetes/charts/tree/master/stable/nfs-server-provisioner ,其他的方式請參考Pravega Operator的自述文件。

NFS Server Provisioner是一個開源工具,它提供一個內置的NFS服務器,可以根據PVC聲明動態地創建基于NFS的持久化存儲卷。

通過helm chart創建nfs-server-provisioner,執行helm install stable/nfs-server-provisioner將會創建一個名為nfs的存儲類(StorageClass)、nfs-server-provisioner服務與實例、以及相應的服務賬戶和角色綁定。

新建一個持久化存儲卷聲明文件pvc.yaml,這里storageClassName指定為nfs。當它被創建時,NFS Server Provisioner會自動創建相應的持久化存儲卷。pvc.yaml內容如下:

kind: PersistentVolumeClaim

apiVersion: v1

metadata:

name: pravega-tier2

spec:

storageClassName: "nfs"

accessModes:

- ReadWriteMany

resources:

requests:

storage: 50Gi

通過kubectl create -f pvc.yaml創建該持久化存儲卷聲明,你會發現相應的持久化存儲卷也被創建。

3接著,部署一個Pravega Operator。

你可以直接使用deploy文件夾中的資源描述文件部署:

git clone https://github.com/pravega/pravega-operator && cd pravega-operator

kubectl create -f pravega-operator/deploy

這里會創建一個名為PravegaCluster自定義資源定義(Custom Resource Definition)、服務賬號、角色、角色綁定,并把Pravega Operator部署到Kubernetes集群中。

4最后,修改資源描述文件并創建Pravega集群。

資源描述文件cr.yaml指定了Zookeeper地址、各組件的實例數和存儲空間。完整文件可以從這里獲得:

https://github.com/pravega/pravega-operator/tree/master/example

apiVersion: "pravega.pravega.io/v1alpha1"

kind: "PravegaCluster"

metadata:

name: "pravega"

spec:

# 配置 zookeeper 集群的地址

zookeeperUri: example-zookeepercluster-client:2181

# 配置 bookkeeper,建議至少三個實例

bookkeeper:

replicas: 3

...

pravega:

# 配置控制器實例,建議至少兩個實例

controllerReplicas: 2

# 配置段存儲器實例,建議至少三個實例

segmentStoreReplicas: 3

# 配置第二層存儲,使用之前創建的持久化存儲卷聲明

tier2:

filesystem:

persistentVolumeClaim:

claimName: pravega-tier2

...

根據描述文件(cr.yaml)創建一個Pravega 集群:

kubectl create -f pravega-operator/example/cr.yaml

集群創建成功后,你可以通過以下命令查看集群的運行狀態:

kubectl get all -l pravega_cluster=pravega

4創建一個簡單的應用

讓我們來看看如何構建一個簡單的Pravega應用程序。最基本的Pravega應用就是使用讀客戶端(Reader)從Stream中讀取數據或使用寫客戶端(Writer)向Stream中寫入數據。兩個簡單的例子都可以在Pravega示例中的gettingstarted應用程序中找到:

https://github.com/pravega/pravega-samples/tree/master/pravega-client-examples/src/main/java/io/pravega/example/gettingstarted

要正確實現這些應用,首先了解一下Pravega是如何高效并發地讀寫Stream:

• 為了實現并發地讀寫,Stream被分為一個或多個Segment,系統可以根據I/O負載動態調整Segment的數目。

• 寫數據時,多個Writer可以同時向多個Segment追加數據而無需知道它們的變化,由路由鍵(Routing key) 保證順序的一致性。

• 路由鍵是一個字符串,控制器會根據它的哈希值而決定該事件將會被派發到哪個Segment中。具有同樣路由鍵的事件會被派發到同一個 Segment,這樣可以保證它們能以一致的順序被訪問。

• 如果Segment發生了變化,具有相同路由鍵的事件也會一致的被映射到新的Segment中。

• 讀數據時,讀者組(ReaderGroup) 中的一組Reader可以同時從不同的Segment中讀數據。

• 一個ReaderGroup包含一個或多個Reader,每個Reader從一個或多個Segment中讀數據。

• 為了保證每個事件只被讀取一次,一個Segment只能被當前ReaderGroup中的一個Reader讀。

• 一個ReaderGroup可以從一個或多個Stream中讀數據,不同的ReaderGroup是相互獨立的。

• 寫數據只能向Stream的尾部追加,讀數據可以從指定位置讀。

 

5使用Writer向流中寫數據

示例HelloWorldWriter舉例說明了如何使用EventStreamWriter向Stream中寫一個事件。 我們來看一下其中最關鍵的run()方法:

? 使用StreamManager創建一個Scope。

StreamManagerstreamManager = StreamManager.create(controllerURI);

final booleanscopeCreation = streamManager.createScope(scope);

StreamManager是創建、刪除和管理stream及scope的接口,通過指定一個控制器地址與控制器通信。

? 使用StreamManager創建一個Stream。

StreamConfigurationstreamConfig = StreamConfiguration.builder()

.scalingPolicy(ScalingPolicy.fixed(1))

.build();

final booleanstreamCreation = streamManager.

createStream(scope, streamName, streamConfig);

創建stream的時候需要指定scope,名稱和配置項。

其中,流配置項包括流的伸縮策略(Scaling Policy)和降層策略(Retention Policy)。Pravega支持三種伸縮策略,將會在下一篇《Pravega動態彈性伸縮特性》中具體介紹。降層策略已經在上一篇中介紹過。

? 使用ClientFactory創建一個Writer,并向Stream中寫數據。

try (ClientFactoryclientFactory = ClientFactory.withScope(scope, controllerURI);

EventStreamWriter writer = clientFactory.createEventWriter(streamName,

new JavaSerializer(),

EventWriterConfig.builder().build())) {

final CompletableFuturewriteFuture = writer.writeEvent(routingKey, message);

}

ClientFactory是用于創建Readers,Writers和其它類型的客戶端對象的工具,它是在Scope的上下文中創建的。ClientFactory以及由它創建的對象會消耗Pravega的資源,所以在示例中用try-with-resources來創建這些對象,以保證程序結束時這些對象會被正確的關閉。如果你使用其他的方式創建對象,請確保在使用結束后正確的調用這些對象的close方法。

在創建Writer的時候還需要指定一個序列化器,它負責把Java對象轉化為字節碼。事件在Pravega中是以字節碼的形式存儲的,Pravega并不需要知道事件的具體類型,這使得Pravega可以存儲任意類型的對象,由客戶端負責提供序列化/反序列化的方法。

用writeEvent方法將事件寫入流,需要指定一個路由鍵(Routing key)。

6使用Reader從流中數據

示例HelloWorldReader舉例說明了如何使用EventStreamReader從Stream中讀取事件,其關鍵部分也是在run()方法中。

? 使用ReaderGroupManager創建一個ReaderGroup。

finalReaderGroupConfigreaderGroupConfig = ReaderGroupConfig.builder()

.stream(Stream.of(scope, streamName))

.build();

try (ReaderGroupManagerreaderGroupManager =

ReaderGroupManager.withScope(scope, controllerURI)) {

readerGroupManager.createReaderGroup(readerGroup, readerGroupConfig);

}

ReaderGroupManager類似于ClientFactory,也是在scope的上下文中創建的。

創建ReaderGroup需要指定名稱和配置項,其中配置項規定了該ReaderGroup從哪些Stream中讀數據,以及所要讀取的Stream的起止位置。Pravega具有Position的概念,它表示Reader當前所在的Stream中的位置。應用保留Reader最后成功讀取的位置,Position的信息可以用于Checkpoint恢復機制,如果讀失敗了就從這個保存的檢查點重新開始讀。

? 創建一個Reader并從流中讀數據。

try (ClientFactoryclientFactory = ClientFactory.withScope(scope, controllerURI);

EventStreamReader reader = clientFactory.createReader("reader",

readerGroup,

new JavaSerializer(),

ReaderConfig.builder().build())) {

EventRead event = null;

do {

event = reader.readNextEvent(READER_TIMEOUT_MS);

} while (event.getEvent() != null);

}

Reader也是由ClientFactory創建的。一個新建的Reader會被加入到相應的ReadGroup中,系統根據當前ReaderGroup的工作負載自動分配相應的段給新創建的Reader。Reader可以通過readNextEvent讀取事件。

由于Pravega的自動伸縮功能,Segment的數量會隨著負載的變化而變化,當ReaderGroup管理的Segment總數發生變化時,會觸發段通知(SegmentNotification),ReaderGroup可以監聽該事件并適時地調整Reader的數量。 如果當前的Segment比較多,為了保證讀的并發性,建議增加Reader;反之,如果當前的Segment比較少,建議減少Reader。由于Reader和Segment是一對多的關系,Reader的數量大于Segment的數量是沒有意義的。

本章總結:

本期內容我們重點介紹了Pravega的云原生特性、核心組件、安裝部署實踐以及Reader/Writer的基本應用實踐。

截至目前,我們已經花了4個篇幅(第一期、第二期、第三期)詳細了Pravega,相信你對它已經有了全面的了解,在下一期的內容里,我們將對Pravega的僅一次語義及事務支持進行介紹。歡迎大家持續關注,如何你有疑問,可在下方留言或知乎號上(見下方二維碼)找到我們。下一期見~

 

掃碼關注知乎號

你和戴爾易安信專家只有一條網線的距離~

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 临安市| 台南县| 清新县| 金秀| 甘孜县| 清流县| 屏南县| 页游| 吴桥县| 涡阳县| 敖汉旗| 望奎县| 孝昌县| 萍乡市| 沭阳县| 岚皋县| 博罗县| 五寨县| 岑溪市| 莎车县| 临安市| 杭锦后旗| 韶关市| 泽库县| 化德县| 呼伦贝尔市| 宜君县| 阿克陶县| 固安县| 迁西县| 长治县| 鄂温| 广安市| 鹿邑县| 中阳县| 遂昌县| 桃园市| 连江县| 长沙县| 长治县| 莱芜市|