斯大林曾說:一個人的死是悲劇,一百萬個人的死就是數據。如果拿醫學界的術語,這是一種共情疲勞,如果換成時下最流行的術語,就是我們還無法處理大數據。
上周參加騰訊思享會,主題就是“大數據將如何影響社會變革”。場間針對大數據,提出了不同的聲音,有“數據孤島論”:現有的大數據是斷裂而封閉的,比如騰訊說自己有某方面的全數據,但是否有百度,有阿里的?有“數據陰謀論”:現在在用大數據做事的就是大企業和政府機構,如果我們普通人不能掌握,那就是被一個無形的網所束縛、所監控。有從經濟安全角度來看待大數據處理“黑箱”問題時的作用。也有從實踐角度來談論大數據在商界中的應用。但最觸動我的是下面兩個觀點。這里簡單摘編下以飧讀者。
不關注人性的大數據是大忽悠---劉德寰
現在主流對大數據的理解是基于維克托的《大數據時代》進行二次改良。但這其中有兩個十分值得商榷的觀點,一是對抽樣的極端蔑視,二是無原則的推崇相關。大數據是一種拋棄隨機分析法(抽樣調查)而對所有數據進行處理,那么這其中就存在一個由斯坦福Trevor Hastie提出的問題,如何在稻草里找一根針,前提是很多稻草長得和針一樣。這是我們所有大數據研究面臨的最大風險,數據太大之后帶來的實際上是一個規律的喪失和失真,千萬不要忽視了抽樣。
拋開這兩個觀點,更為可怕的是現在的大數據鮮有關注人性。先舉個生活中大家都遇到過的問題,一個人去網上買了5升的洗衣液,整個流程花費了不到1分鐘。第二天瀏覽網頁,他發現旁邊的廣告就是各種各樣的洗衣液。這是什么?基于大數據的精準營銷? 這恐怕是基于大忽悠的精準騷擾吧。 有點常識的人都知道,5升的洗衣液就算家里人再多也要用一個月,而且那個人流程這么短,肯定就是品牌忠誠者,推廣的應該是什么時候那個品牌的洗衣液會打折之類的,這才是大數據。人類早期研究問題的方法就是靠體會、知覺、體驗、內省等,這些看起來跟大數據無關的東西可能恰恰是大數據的核心,因為它是思想。
谷歌2008年弄了一個非常厲害的東西叫流感趨勢預測,它預測的結果比美國疾病控制中心還準,當時轟動了全球。結果后來里面東西越來越亂,嚴重的高估了流感的狀態。為什么?這就是剛剛說的維克多流派談大數據的時候重相關不重因果。流感跟發病的時間點,跟美國比如中學生籃球賽那個時間點是完全一致的,這倆概念能有關系嗎?問題是只要搜索中學生的籃球賽,就構成了流感預測的一個主要的詞之一。類似的東西太多了,為什么?因為在谷歌預測的時候,沒有找疾控公共衛生的專家,這些東西才是進行大數據預測的一個很重要的前提。
基因工程才是真正的大數據
人有多少細胞?量級為10的14次方。 其中一個細胞癌變就能導致你生命的完結。難道這不是大數據?真正的大數據是生命大數據,基因篩查可以消滅先天性疾病和預防癌癥,人類想在千年之后復活亦不是難事。可是這樣的基因科技發展卻遭遇了無數現實瓶頸和倫理挑戰。
問題1:從文明和宗教角度,基因工程造就的“完美人”是另一個物種,這樣的“完美人”還是人類么?
問題2:基因問題與大數據問題其最大傷害是對人格獨立性與隱私性的劇烈破壞。
針對這兩個問題,華大基因研究院汪建院長給出他的解讀:
你不做,歐洲人在做,美國人在做,用一種最悲觀的說法,與其讓白人把我們搞死不如我們自己把自己搞死。1993年我在西雅圖的時候,老布什時代啟動人類基因組計劃,那個時候討論地非常激烈。基因科學會對現行的人類道德、法律、生活生產醫療方式帶來天翻地覆的變化,這可能很難以人的意志來改變,在這個時間維度上有點兒太快了,我們自己也感覺太快。當時我在科學院的時候就是因為這些事情爭論不休,所以,我們才離開。離開以后,結果更快了,從幾十個人幾年時間變成幾千人,明年可能就上萬了,明年純基礎研究機構有上萬人,可能對國家現在有關的科研機構的破壞性和挑戰性就很大,產業的發展也會很大。但是它在某些程度上又順應著民眾的需求。