而大數據,已經將一切看在了眼里。
所以,不要為那些可笑的言論買賬。
現實情況是,計算機仍然不能像人類一樣思考,盡管它們似乎表現得有模有樣。
智能但是不智慧
計算機知道的事實比我們知道的更多——他們有更好的記憶力,能更快地計算,并且不知疲倦。機器人在機械性任務中的表現遠遠超過人類:如擰緊螺栓、播種、搜索法律文件、接收銀行存款和分發現金。計算機可以識別物體、繪制圖片、駕駛汽車……你肯定可以輕松地想到其他十幾種令人印象深刻的超人類計算機專長。
人們很容易認為,之所以計算機表現地如此優秀,是因為它們非常“聰明”。在四月發表的一份哈佛商學院的研究報告中,實驗者研究了人們對歌曲等流行事物的看法的影響因素。部分專家認為人類比計算機更具有說服力,但在比較人和計算機提出的“建議”的影響程度后,顯然算法占了上風。
計算機的表現非常優秀,而且會越來越好,但計算機算法的用途仍被設計地非常狹窄,其任務需要被明確定義,例如拼寫檢查和信息檢索。這與通過評估正在發生的事情、為什么會發生以及采取行動的后果來處理不熟悉的情況所需的一般智力相去甚遠。
計算機無法形成有說服力的理論、無法進行歸納推理或制定長期計劃、無法寫出令人嘆服的詩歌、小說或電影劇本,計算機不具備任何情感、感受或是靈感。從任何意義上講,計算機都不知道單詞的含義。計算機沒有人類通過生活積累的智慧。
計算機甚至不知道這些簡單問題的答案:在將橙汁與牛奶混合時,加入少許鹽,它的味道會更好嗎?如果我閉上眼睛,后退著下樓,這樣安全嗎?
我不知道開發具有與人類相媲美的一般智能的計算機需要多長時間。我懷疑這需要幾十年的時間。我確信聲稱其已經實現的人是錯的,我也不相信那些給出具體日期的人。與此同時,請對那些牽強附會的科幻場景持懷疑態度,請謹慎對待開發AI產品的企業。
探索冰山下的海
放著情感和詩歌不說,如今,使用高性能計算機挖掘大數據模式,以幫助做出重大決策的模式已經逐漸普及。當統計模型分析大量潛在的解釋變量時,可能的關系數量變得非常大,可能是數萬億級別的。
如果考慮到更多潛在變量,即使它們都只是隨機噪聲,有些組合必然與我們試圖通過人工智能預測的結果高度相關:癌癥、信用風險、工作適應性、犯罪可能性。偶爾會出現有價值的發現,但考慮的解釋變量越多,發現的關系就越有可能是巧合的、暫時的、無用或者更糟的。
通過監測Facebook或Twitter上的單詞使用情況以評估求職者的算法可能會發現虛假的相關性,這些相關性是工作績效的不良預測指標,對不同性別、種族、性取向和年齡產生了不同的影響。
2016年, Admiral Insurance開發了一種汽車保險算法,評估人們在Facebook上是喜歡邁克爾·喬丹還是喜歡萊昂納德·科恩(Leonard Cohen)。在預定發布的幾個小時前,Facebook表示不會允許Admiral訪問Facebook的數據;Facebook可能更關心的不是歧視或隱私,而是它擁有自己的專利算法,可以根據你和你的Facebook好友的特征來評估貸款申請。
最近,亞馬遜的一項工作申請算法主要是針對男性工程師的簡歷進行訓練,據報道,該算法“懲罰”了簡歷中帶有“女性”字樣的簡歷。亞馬遜發現,盡管他們盡了最大努力,但其工程師仍無法確定該算法是否仍然歧視女性,因此亞馬遜決定將該軟件斃掉。
2017年,國內一家人工智能借貸App的創始人兼首席執行官稱:“銀行只專注于冰山一角,但我們構建的算法要去理解海底的大量數據。”那么海底有哪些有用的數據?你可能會驚訝地發現它完全與智能手機有關。
該CEO吹噓道:“我們不聘請傳統金融機構的任何風險控制人員,我們不需要人類告訴我們誰是好客戶,誰不好。技術就是我們的風控員。”在顯示一個人有良好信用風險的數據中,有一項數據顯示了接聽電話的頻率。這不是一種毫無意義的接電話傾向,而是肯定會歧視那些宗教信仰禁止在特定日期或特定時間接電話的人。
人工智能的黑匣子
2016年希拉里·克林頓競選團隊栽了個大跟頭。他們嚴重依賴一個軟件程序,卻忽視了人們的呼聲,以至于沒有關注密歇根州和威斯康星州,等到發現后早就為時已晚。經驗豐富的競選工作人員知道選民的熱情不足,但熱情很難衡量,所以計算機將其忽略了。
如果發現的模式隱藏在黑匣子內,情況會更加惡化,即使設計算法的研究人員和工程師也無法理解黑匣子的內部細節。通常,沒有人知道為什么電腦得出結論說應該購買某支股票,某個求職者應該被拒絕,某個病人應該接受某種藥物治療,某個囚犯應該被拒絕假釋,某幢大樓應該被炸毀。
人工智能與數字廣告以及個人數據的結合,擴大了潛在損害的范圍,特朗普競選團隊承包商劍橋分析公司就是一例。企業和政府收集的大量個人數據被用來推動和刺激我們去買我們不需要的東西,去我們不喜歡的地方,投票給我們不應該信任的候選人。
在人工智能和大數據時代,真正的危險并不是計算機比我們更聰明,而是我們認為計算機比我們更智能,進而盲從計算機為我們做出的決策。計算機并非萬無一失,我們必須要自己來判斷統計模式是否有意義,或者僅僅是巧合。
人類推理與人工智能存在根本性的不同,這就是為什么我們比以往更需要縝密的推理。