為了再度發揮自身的固有優勢,NetApp公司已經推出一款補充性連接器產品,旨在幫助其Data ONTAP客戶在無需將數據由WAFL復制到HDFS中的前提下對自有NFS數據進行Hadoop分析。
這套NFS Connector for Hadoop能夠處理來自各類數據源的大數據輸入內容,而后將結果與結構化數據分析相結合。從根本層面來看,這相當于將兩類數據匯總成統一化視角、從而更為透徹地掌握企業或者公共事業組織的當前運作狀況。
這樣的方案避免了將大規模數據由FAS陣列遷移至HDFS(即Hadoop文件系統)集群所帶來的麻煩與不便。
這套Hadoop集群能夠以HDFS為主要運行平臺,并將ONTAP作為輔助性文件系統。除此之外,該集群還能夠在無需造成獨立HDFS孤島的前提下單純運作在FAS陣列之上。
這很可能成為ONTAP用戶試水Hadoop項目并體驗其實際效果的絕佳途徑。
這套連接器采取開源機制,并由GitHub負責托管:
專門針對MapReduce協作需要,從而配合Apache Hadoop框架當中的計算部分。
能夠支持Apache HBase(屬于列式數據庫)。
能夠支持Apache Spark(與Hadoop相兼容的處理引擎)。
能夠與Tachyon內存內文件系統相協作,后者能夠與Apache Hadoop與Spark并行協作。
在一篇博文當中,NetApp公司CTO辦公室的Val Bercovici表示:“NetApp計劃將相關代碼貢獻給Hadoop項目主體。”
NetApp公司還針對Cloudera制定出自己的NOSH(即面向Hadoop的NetApp開放解決方案)計劃。