“大數據”是在2013年被用濫了的詞匯,但實際上,由于數據量缺失、大數據清洗和分析能力不足,以及數據可視化瓶頸等問題,“大數據”一直未能遲遲落地。而在最近,隨著基礎設施的發展,意味著大數據的發展又走到新的一個臨界點。系統軟件供應商Software AG的Gagan Mehra,在 Venturebeat 網站闡述了他對于大數據接下來發展的認識,他認為更快地數據處理、更可靠地數據質量,以及給更加細分的應用市場,是大數據2.0時代的重要特征。
更快的數據處理速度
由于數據量指數型增長,使得對于數據的快速分析的需要已經變得比以往任何時候都要迫切。幾乎每家大數據廠商,都想要兜售比別家處理速度更快的產品。Hadoop發布的新品Hadoop 2.0 / YARN,幾乎能實時分析數據。而下一代大數據的計算牽引框架Apache Spark,它的速度比Hadoop快100倍。硅谷風險投資機構Andreessen Horowitz,已經以1400萬美元的價格,領投了一家以Apache Spark為業務核心的初創企業Databricks。不久前,亞馬遜也 上線了實時流數據服務Kinesis ,來幫助沒有數據處理能力的公司解決這一問題。
許多分析供應商都已經認識到了數據處理速度的重要性,并建立了能夠每秒處理TB數據的產品。傳感器數據分析、物聯網在工業和消費級市場快速發展的勢頭,驅動了這次變革。比如一家企業的傳感器,能夠每秒產生出數百次的事件,實時處理這些數據難度很高。特別是當實時處理的傳感器數據,激增到一天5TB的時候,速度,就成了尤為關鍵的指標。
同時,盡管數據存儲成本已經累年下降,但數據存儲的費用還是不小的一筆支出。部分商家相比存儲完整數據流而言,更傾向于保存過濾掉噪音的數據。
智能清洗“垃圾數據”
在本就難以計數的數據量繼續以指數模型激增時,對于數據質量的強化,便擺上了許多數據供應商的議程。換句話說,在龐大數據面前,即使計算機能夠高效的處理它們,但大量無用的“垃圾”數據,只會給系統帶來負擔,并增添存儲、主機等設備成本。這就需要數據處理過程中,根據特定的規則和參數,對涌進數據流進行“清洗”和分析,并自動決策該去處理哪些數據,這一切不再需要人工去干預。
在這樣的環境下,如果選擇了一個壞的數據,就會像病毒一樣,可能引發連續的錯誤決策,甚至讓企業蒙受經濟損失。一個例子就是利用算法去進行股票交易,以毫秒計數股票市場中,任何一點小的差錯,都有可能引發無法巨大的損失。
所以,數據質量已成為服務級別協議(service level agreements)最重要的參數之一。無法屏蔽劣質的數據的供應商,會因此被列入行業的黑名單,以及面臨嚴重的經濟處罰。B2B行業為早期數據質量的入局者,他們非常重視數據的質量,來保持商業運作時的穩定性。甚至,許多企業計劃為數據質量部署實時的警告系統,這些警告會被發送于負責相應問題的專員,由他們提供問題的解決方案。
機器學習是另一項需要保證數據質量的領域。機器學習系統部署在一個閉環的生態中,通過模式分析與其他的數據分析技術,細化原來的數據質量規則。而高質量的數據,能夠保證機器進行正確的行為模式分析。
越來越多的基礎應用
大數據帶來的變革,使得每一個人都想要利用它,但技術上門檻又讓許多人不得已只能充當一個看客。而應用將有助于人們去克服這一困難。在接下來的幾年中,我們將會看到成千上萬的解決某一垂直領域的專業應用,以應對來自各行各業的大數據挑戰。
目前,已經小有成就的數據分析公司包括eHarmony、 Roambi、 Climate Corporation等等。未來,甚至許多小企業,既不用依賴特定基礎設備,也不要雇傭專業的數據科學家,就能受益于對大數據分析利用。
比如,一些應用將從各種渠道,收集關聯的客戶數據,以更好地了解客戶的需求。從而企業能夠為特定的目標客戶,提供特定需求的產品,更有針對性地賺到錢。當這些應用走進人們日常的吃喝玩樂、醫療保健等領域,生活也會因此而更美好。