精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:大數據業界動態 → 正文

大數據分析系統Hadoop的13個開源工具

責任編輯:cres |來源:企業網D1Net  2018-06-05 13:37:47 本文摘自:搜狐

Hadoop是由Apache基金會開發的一個大數據分布式系統基礎架構,最早版本是2003年原Yahoo!DougCutting根據Google發布的學術論文研究而來。
 
用戶可以在不了解分布式底層細節的情況下,輕松地在Hadoop上開發和運行處理海量數據的應用程序。低成本、高可靠、高擴展、高有效、高容錯等特性讓Hadoop成為最流行的大數據分析系統,然而其賴以生存的HDFS和MapReduce組件卻讓其一度陷入困境——批處理的工作方式讓其只適用于離線數據處理,在要求實時性的場景下毫無用武之地。
 
因此,各種基于Hadoop的工具應運而生,本次為大家分享Hadoop生態系統中最常用的13個開源工具,其中包括資源調度、流計算及各種業務針對應用場景。首先,我們看資源管理相關。
 
資源統一管理/調度系統
 
在公司和機構中,服務器往往會因為業務邏輯被拆分為多個集群,基于數據密集型的處理框架也是不斷涌現,比如支持離線處理的MapReduce、支持在線處理的Storm及Impala、支持迭代計算的Spark及流處理框架S4,它們誕生于不同的實驗室,并各有所長。
 
為了減少管理成本,提升資源的利用率,一個共同的想法產生——讓這些框架運行在同一個集群上;因此,就有了當下眾多的資源統一管理/調度系統,本次為大家重點介紹ApacheMesos及YARN:
 
1、ApacheMesos
 
代碼托管地址:ApacheSVN
 
Mesos提供了高效、跨分布式應用程序和框架的資源隔離和共享,支持Hadoop、MPI、Hypertable、Spark等。
 
Mesos是Apache孵化器中的一個開源項目,使用ZooKeeper實現容錯復制,使用LinuxContainers來隔離任務,支持多種資源計劃分配(內存和CPU)。提供Java、Python和C++APIs來開發新的并行應用程序,提供基于Web的用戶界面來提查看集群狀態。
 
2、HadoopYARN
 
代碼托管地址:ApacheSVN
 
YARN又被稱為MapReduce2.0,借鑒Mesos,YARN提出了資源隔離解決方案Container,但是目前尚未成熟,僅僅提供Java虛擬機內存的隔離。
 
對比MapReduce1.x,YARN架構在客戶端上并未做太大的改變,在調用API及接口上還保持大部分的兼容,然而在YARN中,開發人員使用ResourceManager、ApplicationMaster與NodeManager代替了原框架中核心的JobTracker和TaskTracker。其中ResourceManager是一個中心的服務,負責調度、啟動每一個Job所屬的ApplicationMaster,另外還監控ApplicationMaster的存在情況;NodeManager負責Container狀態的維護,并向RM保持心跳。ApplicationMaster負責一個Job生命周期內的所有工作,類似老的框架中JobTracker。
 
Hadoop上的實時解決方案
 
前面我們有說過,在互聯網公司中基于業務邏輯需求,企業往往會采用多種計算框架,比如從事搜索業務的公司:網頁索引建立用MapReduce,自然語言處理用Spark等。
 
3、ClouderaImpala
 
代碼托管地址:GitHub
 
Impala是由Cloudera開發,一個開源的MassivelyParallelProcessing(MPP)查詢引擎。與Hive相同的元數據、SQL語法、ODBC驅動程序和用戶接口(HueBeeswax),可以直接在HDFS或HBase上提供快速、交互式SQL查詢。Impala是在Dremel的啟發下開發的,第一個版本發布于2012年末。
 
Impala不再使用緩慢的Hive+MapReduce批處理,而是通過與商用并行關系數據庫中類似的分布式查詢引擎(由QueryPlanner、QueryCoordinator和QueryExecEngine三部分組成),可以直接從HDFS或者HBase中用SELECT、JOIN和統計函數查詢數據,從而大大降低了延遲。
 
4、Spark
 
代碼托管地址:Apache
 
Spark是個開源的數據分析集群計算框架,最初由加州大學伯克利分校AMPLab開發,建立于HDFS之上。Spark與Hadoop一樣,用于構建大規模、低延時的數據分析應用。Spark采用Scala語言實現,使用Scala作為應用框架。
 
Spark采用基于內存的分布式數據集,優化了迭代式的工作負載以及交互式查詢。與Hadoop不同的是,Spark和Scala緊密集成,Scala像管理本地collective對象那樣管理分布式數據集。Spark支持分布式數據集上的迭代式任務,實際上可以在Hadoop文件系統上與Hadoop一起運行(通過YARN、Mesos等實現)。
 
5、Storm
 
代碼托管地址:GitHub
 
Storm是一個分布式的、容錯的實時計算系統,由BackType開發,后被Twitter捕獲。Storm屬于流處理平臺,多用于實時計算并更新數據庫。Storm也可被用于“連續計算”(continuouscomputation),對數據流做連續查詢,在計算時就將結果以流的形式輸出給用戶。它還可被用于“分布式RPC”,以并行的方式運行昂貴的運算。
 
Hadoop上的其它解決方案
 
就像前文說,基于業務對實時的需求,各個實驗室發明了Storm、Impala、Spark、Samza等流實時處理工具。而本節我們將分享的是實驗室基于性能、兼容性、數據類型研究的開源解決方案,其中包括Shark、Phoenix、ApacheAccumulo、ApacheDrill、ApacheGiraph、ApacheHama、ApacheTez、ApacheAmbari。
 
6、Shark
 
代碼托管地址:GitHub
 
Shark,代表了“HiveonSpark”,一個專為Spark打造的大規模數據倉庫系統,兼容ApacheHive。無需修改現有的數據或者查詢,就可以用100倍的速度執行HiveQL。
 
Shark支持Hive查詢語言、元存儲、序列化格式及自定義函數,與現有Hive部署無縫集成,是一個更快、更強大的替代方案。
 
7、Phoenix
 
代碼托管地址:GitHub
 
Phoenix是構建在ApacheHBase之上的一個SQL中間層,完全使用Java編寫,提供了一個客戶端可嵌入的JDBC驅動。Phoenix查詢引擎會將SQL查詢轉換為一個或多個HBasescan,并編排執行以生成標準的JDBC結果集。直接使用HBaseAPI、協同處理器與自定義過濾器,對于簡單查詢來說,其性能量級是毫秒,對于百萬級別的行數來說,其性能量級是秒。Phoenix完全托管在GitHub之上。
 
Phoenix值得關注的特性包括:1,嵌入式的JDBC驅動,實現了大部分的java.sql接口,包括元數據API;2,可以通過多個行鍵或是鍵/值單元對列進行建模;3,DDL支持;4,版本化的模式倉庫;5,DML支持;5,通過客戶端的批處理實現的有限的事務支持;6,緊跟ANSISQL標準。
 
8、ApacheAccumulo
 
代碼托管地址:ApacheSVN
 
ApacheAccumulo是一個可靠的、可伸縮的、高性能、排序分布式的鍵值存儲解決方案,基于單元訪問控制以及可定制的服務器端處理。使用GoogleBigTable設計思路,基于ApacheHadoop、Zookeeper和Thrift構建。Accumulo最早由NSA開發,后被捐獻給了Apache基金會。
 
對比GoogleBigTable,Accumulo主要提升在基于單元的訪問及服務器端的編程機制,后一處修改讓Accumulo可以在數據處理過程中任意點修改鍵值對。
 
9、ApacheDrill
 
代碼托管地址:GitHub
 
本質上,ApacheDrill是GoogleDremel的開源實現,本質是一個分布式的mpp查詢層,支持SQL及一些用于NoSQL和Hadoop數據存儲系統上的語言,將有助于Hadoop用戶實現更快查詢海量數據集的目的。當下Drill還只能算上一個框架,只包含了Drill愿景中的初始功能。
 
Drill的目的在于支持更廣泛的數據源、數據格式及查詢語言,可以通過對PB字節數據的快速掃描(大約幾秒內)完成相關分析,將是一個專為互動分析大型數據集的分布式系統。
 
10、ApacheGiraph
 
代碼托管地址:GitHub
 
ApacheGiraph是一個可伸縮的分布式迭代圖處理系統,靈感來自BSP(bulksynchronousparallel)和Google的Pregel,與它們區別于則是是開源、基于Hadoop的架構等。
 
Giraph處理平臺適用于運行大規模的邏輯計算,比如頁面排行、共享鏈接、基于個性化排行等。Giraph專注于社交圖計算,被Facebook作為其OpenGraph工具的核心,幾分鐘內處理數萬億次用戶及其行為之間的連接。
 
11、ApacheHama
 
代碼托管地址:GitHub
 
ApacheHama是一個建立在Hadoop上基于BSP(BulkSynchronousParallel)的計算框架,模仿了Google的Pregel。用來處理大規模的科學計算,特別是矩陣和圖計算。集群環境中的系統架構由BSPMaster/GroomServer(ComputationEngine)、Zookeeper(DistributedLocking)、HDFS/HBase(StorageSystems)這3大塊組成。
 
12、ApacheTez
 
代碼托管地址:GitHub
 
ApacheTez是基于HadoopYarn之上的DAG(有向無環圖,DirectedAcyclicGraph)計算框架。它把Map/Reduce過程拆分成若干個子過程,同時可以把多個Map/Reduce任務組合成一個較大的DAG任務,減少了Map/Reduce之間的文件存儲。同時合理組合其子過程,減少任務的運行時間。由Hortonworks開發并提供主要支持。
 
13、ApacheAmbari
 
代碼托管地址:ApacheSVN
 
ApacheAmbari是一個供應、管理和監視ApacheHadoop集群的開源框架,它提供一個直觀的操作工具和一個健壯的HadoopAPI,可以隱藏復雜的Hadoop操作,使集群操作大大簡化,首個版本發布于2012年6月。
 
ApacheAmbari現在是一個Apache的頂級項目,早在2011年8月,Hortonworks引進Ambari作為ApacheIncubator項目,制定了Hadoop集群極致簡單管理的愿景。在兩年多的開發社區顯著成長,從一個小團隊,成長為Hortonworks各種組織的貢獻者。Ambari用戶群一直在穩步增長,許多機構依靠Ambari在其大型數據中心大規模部署和管理Hadoop集群。
 
目前ApacheAmbari支持的Hadoop組件包括:HDFS、MapReduce、Hive、HCatalog、HBase、ZooKeeper、Oozie、Pig及Sqoop。

關鍵字:大數據

本文摘自:搜狐

x 大數據分析系統Hadoop的13個開源工具 掃一掃
分享本文到朋友圈
當前位置:大數據業界動態 → 正文

大數據分析系統Hadoop的13個開源工具

責任編輯:cres |來源:企業網D1Net  2018-06-05 13:37:47 本文摘自:搜狐

Hadoop是由Apache基金會開發的一個大數據分布式系統基礎架構,最早版本是2003年原Yahoo!DougCutting根據Google發布的學術論文研究而來。
 
用戶可以在不了解分布式底層細節的情況下,輕松地在Hadoop上開發和運行處理海量數據的應用程序。低成本、高可靠、高擴展、高有效、高容錯等特性讓Hadoop成為最流行的大數據分析系統,然而其賴以生存的HDFS和MapReduce組件卻讓其一度陷入困境——批處理的工作方式讓其只適用于離線數據處理,在要求實時性的場景下毫無用武之地。
 
因此,各種基于Hadoop的工具應運而生,本次為大家分享Hadoop生態系統中最常用的13個開源工具,其中包括資源調度、流計算及各種業務針對應用場景。首先,我們看資源管理相關。
 
資源統一管理/調度系統
 
在公司和機構中,服務器往往會因為業務邏輯被拆分為多個集群,基于數據密集型的處理框架也是不斷涌現,比如支持離線處理的MapReduce、支持在線處理的Storm及Impala、支持迭代計算的Spark及流處理框架S4,它們誕生于不同的實驗室,并各有所長。
 
為了減少管理成本,提升資源的利用率,一個共同的想法產生——讓這些框架運行在同一個集群上;因此,就有了當下眾多的資源統一管理/調度系統,本次為大家重點介紹ApacheMesos及YARN:
 
1、ApacheMesos
 
代碼托管地址:ApacheSVN
 
Mesos提供了高效、跨分布式應用程序和框架的資源隔離和共享,支持Hadoop、MPI、Hypertable、Spark等。
 
Mesos是Apache孵化器中的一個開源項目,使用ZooKeeper實現容錯復制,使用LinuxContainers來隔離任務,支持多種資源計劃分配(內存和CPU)。提供Java、Python和C++APIs來開發新的并行應用程序,提供基于Web的用戶界面來提查看集群狀態。
 
2、HadoopYARN
 
代碼托管地址:ApacheSVN
 
YARN又被稱為MapReduce2.0,借鑒Mesos,YARN提出了資源隔離解決方案Container,但是目前尚未成熟,僅僅提供Java虛擬機內存的隔離。
 
對比MapReduce1.x,YARN架構在客戶端上并未做太大的改變,在調用API及接口上還保持大部分的兼容,然而在YARN中,開發人員使用ResourceManager、ApplicationMaster與NodeManager代替了原框架中核心的JobTracker和TaskTracker。其中ResourceManager是一個中心的服務,負責調度、啟動每一個Job所屬的ApplicationMaster,另外還監控ApplicationMaster的存在情況;NodeManager負責Container狀態的維護,并向RM保持心跳。ApplicationMaster負責一個Job生命周期內的所有工作,類似老的框架中JobTracker。
 
Hadoop上的實時解決方案
 
前面我們有說過,在互聯網公司中基于業務邏輯需求,企業往往會采用多種計算框架,比如從事搜索業務的公司:網頁索引建立用MapReduce,自然語言處理用Spark等。
 
3、ClouderaImpala
 
代碼托管地址:GitHub
 
Impala是由Cloudera開發,一個開源的MassivelyParallelProcessing(MPP)查詢引擎。與Hive相同的元數據、SQL語法、ODBC驅動程序和用戶接口(HueBeeswax),可以直接在HDFS或HBase上提供快速、交互式SQL查詢。Impala是在Dremel的啟發下開發的,第一個版本發布于2012年末。
 
Impala不再使用緩慢的Hive+MapReduce批處理,而是通過與商用并行關系數據庫中類似的分布式查詢引擎(由QueryPlanner、QueryCoordinator和QueryExecEngine三部分組成),可以直接從HDFS或者HBase中用SELECT、JOIN和統計函數查詢數據,從而大大降低了延遲。
 
4、Spark
 
代碼托管地址:Apache
 
Spark是個開源的數據分析集群計算框架,最初由加州大學伯克利分校AMPLab開發,建立于HDFS之上。Spark與Hadoop一樣,用于構建大規模、低延時的數據分析應用。Spark采用Scala語言實現,使用Scala作為應用框架。
 
Spark采用基于內存的分布式數據集,優化了迭代式的工作負載以及交互式查詢。與Hadoop不同的是,Spark和Scala緊密集成,Scala像管理本地collective對象那樣管理分布式數據集。Spark支持分布式數據集上的迭代式任務,實際上可以在Hadoop文件系統上與Hadoop一起運行(通過YARN、Mesos等實現)。
 
5、Storm
 
代碼托管地址:GitHub
 
Storm是一個分布式的、容錯的實時計算系統,由BackType開發,后被Twitter捕獲。Storm屬于流處理平臺,多用于實時計算并更新數據庫。Storm也可被用于“連續計算”(continuouscomputation),對數據流做連續查詢,在計算時就將結果以流的形式輸出給用戶。它還可被用于“分布式RPC”,以并行的方式運行昂貴的運算。
 
Hadoop上的其它解決方案
 
就像前文說,基于業務對實時的需求,各個實驗室發明了Storm、Impala、Spark、Samza等流實時處理工具。而本節我們將分享的是實驗室基于性能、兼容性、數據類型研究的開源解決方案,其中包括Shark、Phoenix、ApacheAccumulo、ApacheDrill、ApacheGiraph、ApacheHama、ApacheTez、ApacheAmbari。
 
6、Shark
 
代碼托管地址:GitHub
 
Shark,代表了“HiveonSpark”,一個專為Spark打造的大規模數據倉庫系統,兼容ApacheHive。無需修改現有的數據或者查詢,就可以用100倍的速度執行HiveQL。
 
Shark支持Hive查詢語言、元存儲、序列化格式及自定義函數,與現有Hive部署無縫集成,是一個更快、更強大的替代方案。
 
7、Phoenix
 
代碼托管地址:GitHub
 
Phoenix是構建在ApacheHBase之上的一個SQL中間層,完全使用Java編寫,提供了一個客戶端可嵌入的JDBC驅動。Phoenix查詢引擎會將SQL查詢轉換為一個或多個HBasescan,并編排執行以生成標準的JDBC結果集。直接使用HBaseAPI、協同處理器與自定義過濾器,對于簡單查詢來說,其性能量級是毫秒,對于百萬級別的行數來說,其性能量級是秒。Phoenix完全托管在GitHub之上。
 
Phoenix值得關注的特性包括:1,嵌入式的JDBC驅動,實現了大部分的java.sql接口,包括元數據API;2,可以通過多個行鍵或是鍵/值單元對列進行建模;3,DDL支持;4,版本化的模式倉庫;5,DML支持;5,通過客戶端的批處理實現的有限的事務支持;6,緊跟ANSISQL標準。
 
8、ApacheAccumulo
 
代碼托管地址:ApacheSVN
 
ApacheAccumulo是一個可靠的、可伸縮的、高性能、排序分布式的鍵值存儲解決方案,基于單元訪問控制以及可定制的服務器端處理。使用GoogleBigTable設計思路,基于ApacheHadoop、Zookeeper和Thrift構建。Accumulo最早由NSA開發,后被捐獻給了Apache基金會。
 
對比GoogleBigTable,Accumulo主要提升在基于單元的訪問及服務器端的編程機制,后一處修改讓Accumulo可以在數據處理過程中任意點修改鍵值對。
 
9、ApacheDrill
 
代碼托管地址:GitHub
 
本質上,ApacheDrill是GoogleDremel的開源實現,本質是一個分布式的mpp查詢層,支持SQL及一些用于NoSQL和Hadoop數據存儲系統上的語言,將有助于Hadoop用戶實現更快查詢海量數據集的目的。當下Drill還只能算上一個框架,只包含了Drill愿景中的初始功能。
 
Drill的目的在于支持更廣泛的數據源、數據格式及查詢語言,可以通過對PB字節數據的快速掃描(大約幾秒內)完成相關分析,將是一個專為互動分析大型數據集的分布式系統。
 
10、ApacheGiraph
 
代碼托管地址:GitHub
 
ApacheGiraph是一個可伸縮的分布式迭代圖處理系統,靈感來自BSP(bulksynchronousparallel)和Google的Pregel,與它們區別于則是是開源、基于Hadoop的架構等。
 
Giraph處理平臺適用于運行大規模的邏輯計算,比如頁面排行、共享鏈接、基于個性化排行等。Giraph專注于社交圖計算,被Facebook作為其OpenGraph工具的核心,幾分鐘內處理數萬億次用戶及其行為之間的連接。
 
11、ApacheHama
 
代碼托管地址:GitHub
 
ApacheHama是一個建立在Hadoop上基于BSP(BulkSynchronousParallel)的計算框架,模仿了Google的Pregel。用來處理大規模的科學計算,特別是矩陣和圖計算。集群環境中的系統架構由BSPMaster/GroomServer(ComputationEngine)、Zookeeper(DistributedLocking)、HDFS/HBase(StorageSystems)這3大塊組成。
 
12、ApacheTez
 
代碼托管地址:GitHub
 
ApacheTez是基于HadoopYarn之上的DAG(有向無環圖,DirectedAcyclicGraph)計算框架。它把Map/Reduce過程拆分成若干個子過程,同時可以把多個Map/Reduce任務組合成一個較大的DAG任務,減少了Map/Reduce之間的文件存儲。同時合理組合其子過程,減少任務的運行時間。由Hortonworks開發并提供主要支持。
 
13、ApacheAmbari
 
代碼托管地址:ApacheSVN
 
ApacheAmbari是一個供應、管理和監視ApacheHadoop集群的開源框架,它提供一個直觀的操作工具和一個健壯的HadoopAPI,可以隱藏復雜的Hadoop操作,使集群操作大大簡化,首個版本發布于2012年6月。
 
ApacheAmbari現在是一個Apache的頂級項目,早在2011年8月,Hortonworks引進Ambari作為ApacheIncubator項目,制定了Hadoop集群極致簡單管理的愿景。在兩年多的開發社區顯著成長,從一個小團隊,成長為Hortonworks各種組織的貢獻者。Ambari用戶群一直在穩步增長,許多機構依靠Ambari在其大型數據中心大規模部署和管理Hadoop集群。
 
目前ApacheAmbari支持的Hadoop組件包括:HDFS、MapReduce、Hive、HCatalog、HBase、ZooKeeper、Oozie、Pig及Sqoop。

關鍵字:大數據

本文摘自:搜狐

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 扎赉特旗| 洮南市| 马关县| 右玉县| 莱芜市| 泸水县| 民勤县| 漯河市| 泰顺县| 松溪县| 宁波市| 察哈| 秀山| 萨嘎县| 武宁县| 临汾市| 合山市| 库车县| 政和县| 西乡县| 肥城市| 泸水县| 读书| 江城| 朔州市| 舒城县| 县级市| 客服| 舟山市| 陈巴尔虎旗| 宁陕县| 京山县| 阿鲁科尔沁旗| 佛山市| 定州市| 泗阳县| 日照市| 准格尔旗| 江华| 邮箱| 仁布县|