當談論大數據的時候,我們談論什么?
通常是Hadoop和龐大的數據群。
但是人類的大腦還遠遠沒有進化到能夠迅速接收這些數據,并對其加以分析和處理,并將結果用在現實世界中。雖然互聯網能夠幫我們解決這樣的問題,但是它也會帶來一些弊端,例如讓我們變得懶惰,完全將工作交付計算機來處理。
雖然計算機在數據儲存方面為我們提供了方便。但是人類的大腦才是分析數據最好的工具。
科學上最大的進步,應該是讓計算機模擬人類的大腦。日本的超級計算機K Computer是唯一一個能夠模擬人類大腦的計算機。它擁有8.2萬個處理器。
模擬人類大腦,以人類的方式對數據進行分析,正是大數據的發展方向。今天的大數據,還是讓計算機定期的對靜態數據進行分析,顯然這是遠遠不夠的。每一秒鐘世界上都產生了大量的數據,大數據應該能夠對這些動態數據進行收集和分析,就像人類實時處理身邊的情況一樣。
我們對科技的希望越來越高,而如今我對科技的期望,就是希望它能夠像人類的大腦一樣工作。最重要的是,大數據不僅應該能夠處理實時信息,還應該能夠根據信息的分析結果給出最優化的解決辦法。而不僅僅是把處理結果展示給我們看。
大數據應該擁有像人類的五官一樣的裝置,從各種渠道獲得信息,而大數據本身則扮演大腦的功能。對收集來的信息進行實時分析,并最終做出反應。
大數據的發展,離不開互聯網巨頭們的努力,例如Twitter、Facebook和Yahoo等。他們花費的大量的時間和資源來發展實時數據處理與通信系統。例如Facebook的Wormhole、雅虎的Storm-YARN以及Twitter和LinkedIn的開源數據等。
這些公司的努力推動了大數據的發展,用戶使用這些企業的服務所產生的數據,成為了大數據的基石。我們能夠很清楚的看到,大數據在未來將會迎來更加廣闊的市場。
明天的大數據,應該能夠實時的對數據進行監控、收集和分析,處理更加復雜的任務,并且被應用在更多的產業中。大數據將會變的和這個數據上最有力的工具一樣高效,這個工具就是人類的大腦。