眾所周知,大數據正在以驚人的速度增長,幾乎觸及各行各業,許多組織都被迫尋找新的創造性方法來管理和控制如此龐大的數據,當然這么做的目的不只是管理和控制數據,而是要分析和挖掘其中的價值,來促進業務的發展。
想要深入發展大數據,閉門造車是不可能的,共通共融是現在趨勢,因此,開源讓越來越多的項目可以直接采用大數據技術。如今,從小型初創企業到行業巨頭,各種規模的供應商都在使用開源來處理大數據和運行預測分析。借助開源與云計算技術,新興公司甚至在很多方面都可以與大廠商抗衡。
開源大數據的優勢不言而喻,但在眾多的開源工具中該如何抉擇?本文中大數據領域的十個巨頭,將有助于你更深入掌握大數據這個行業的發展形勢。
Hadoop——高效、可靠、可伸縮,能夠為你的數據存儲項目提供所需的YARN、HDFS和基礎架構,并且運行主要的大數據服務和應用程序。
Spark——使用簡單、支持所有重要的大數據語言(Scala、Python、Java、R)。擁有強大的生態系統,成長迅速,對microbatching/batching/SQL支持簡單。Spark能更好地適用于數據挖掘與機器學習等需要迭代的MapReduce的算法。
NiFi——Apache NiFi是由美國國家安全局(NSA)貢獻給Apache基金會的開源項目,其設計目標是自動化系統間的數據流。基于其工作流式的編程理念,NiFi非常易于使用、強大、可靠、高可配置。兩個最重要的特性是其強大的用戶界面和良好的數據回溯工具。堪稱大數據工具箱里的瑞士軍刀。
Apache Hive 2.1——Hive是建立在 Hadoop 上的數據倉庫基礎構架。它提供了一系列的工具,可以用來進行數據提取轉化加載(ETL),這是一種可以存儲、查詢和分析存儲在 Hadoop 中的大規模數據的機制。隨著最新版本的發布,性能和功能都得到了全面提升,Hive已成為SQL在大數據上的最佳解決方案。
Kafka——Kafka是一種高吞吐量的分布式發布訂閱消息系統,它可以處理消費者規模網站中的所有動作流數據。它已成為大數據系統在異步和分布式消息之間的最佳選擇。從Spark到NiFi再到第三方插件工具以至于Java到Scala,它都提供了強大的粘合作用。
Phoenix—是HBase的SQL驅動。目前大量的公司采用它,并擴大其規模。HDFS支持的NoSQL能夠很好地集成所有工具。Phoenix查詢引擎會將SQL查詢轉換為一個或多個HBase scan,并編排執行以生成標準的JDBC結果集。
Zeppelin——Zeppelin 是一個提供交互數據分析且基于Web的筆記本。方便你做出可數據驅動的、可交互且可協作的精美文檔,并且支持多種語言,包括 Scala(使用 Apache Spark)、Python(Apache Spark)、SparkSQL、 Hive、 Markdown、Shell等。
Sparkling Water——H2O填補了Spark’s Machine Learning的缺口,它可以滿足你所有的機器學習。
Apache Beam——在Java中提供統一的數據進程管道開發,并且能夠很好地支持Spark和Flink。提供很多在線框架,開發者無需學習太多框架。
Stanford CoreNLP——自然語言處理擁有巨大的增長空間,斯坦福正在努力增進他們的框架。[返回頻道首頁]