大數據從2011年起變成了炙手可熱的話題。大數據一詞雖然內涵重心是數據,但其中更為重要的統計思維卻往往被忽視。而缺乏統計思維的“大數據”則有可能帶來“大偏差”。
谷歌流行病趨勢模型,曾經被當做推銷大數據概念的金牌案例。其作用是預測流感和登革熱的流行病趨勢,但實踐表明,這一模型并沒有經得住時間的考驗。從2011年8月21日到2013年9月1日期間,谷歌流行病模型在108個星期里有100個星期高估了流行病數據。2013年1月,谷歌流行病趨勢模型的估計值是實際數據的2倍。如此大的誤差顯然是無法接受的。
大數據作為二手數據,缺乏行政監督,很多時候也沒有辦法控制大數據的樣本,大數據的樣本往往是有噪音的和冗余的,這些問題給大數據分析帶來了一定的障礙。谷歌流行病預測模型的目的是預測全美流感發病率,用的數據是搜索引擎用戶的搜索記錄。但是,全美國民和搜索引擎用戶并不是同一個概念。有流感癥狀的人并不都會使用搜索引擎查詢,而使用搜索引擎查流感癥狀的人也不見得都得了流感。谷歌流行病模型的基礎是流行病發病和各種關鍵詞搜索之間的相關關系,但是這種相關關系不是一成不變的,當媒體大量報道和普及流行病常識時,公眾在一定程度上產生恐慌,會帶來搜索量的突增,這種突增并不意味著流行病的爆發。這也是谷歌流行病預測模型失敗的主要原因之一。
在統計學視角里,樣本并不是越大越有價值,統計學強調的是樣本的代表性,這一代表性一般是通過抽樣調查來滿足的。如國家統計局為了更好進行抽樣調查,建立了基本單位名錄庫,名錄庫就是統計調查中的抽樣框,抽樣樣本均來自于抽樣框。抽樣框既是選擇樣本單位的依據,也是推斷總體的依據。在分析問題時,弄清楚自己的研究總體是非常重要的,如果大數據樣本不是研究總體,也不是研究總體的抽樣樣本,這個時候用大數據做結論就需要非常小心,不然很容易由“大數據”帶來“大偏差”。
統計與信息技術聯姻,是大數據發展的必由之路。直視當下大數據分析中存在的問題,在利用機器學習算法的同時結合統計學的思維,才能更好地利用大數據這個工具,讓大數據時代變得更美。