人工智能的嶄新范式
人工智能的研究范式和數理科學截然不同。這種范式數據導向,非常工程化,方法論發達而認識論不足。首先我們談數據導向。李飛飛老師的ImageNet項目是一個非常典型的例子。海量圖片的收集,整理和標注,有巨大的工作量。在這些高質量數據基礎上進行了世界范圍的圖像識別競賽,參賽隊通過構建規模更大的深度學習網絡,表現迅速超過了傳統算法,這也成為深度學習標志性的成就。其基本的工作流程是積累大規模數據,得到更深的網絡模型,實現更好的表現。雖然現在我們有了更多不同種類的深度網絡應對不同任務,但這一基本框架并沒有本質的改變。在該框架中,數據收集幾乎占據了最為重要的位置,若數據質量不過關,很容易造成所說的garbage in - garbage out。而數據集大小是影響深度學習效能的重要因素,一般認為,當數據集較小時,深度學習不一定優于傳統機器學習方法。而隨著數據集規模的增大,傳統機器學習算法的表現很容易飽和,深度學習的表現卻可以隨著網絡規模的增大而更加優異。
在傳統數理科學領域,我們并沒有如此依賴數據來進行模型構建。可能由于人腦思維能力的限制,人們更習慣于從簡單假設出發,利用邏輯演繹或者公式推導來構建一套模型系統,用以解釋實際數據。數理科學存在利用大量數據的情形:比如開普勒從第谷得觀測數據中也找到了特定的結構,不過這種結構不是用神經網絡的方式來描述的,而是采取了數學上更為簡潔的形式。而該規律只有納入牛頓力學的框架的時候才成為一個自然的結果。現在觀測手段更加進步,據說LHC每秒可以產生100萬億字節的對撞數據。但這些數據不是為了導出模型,而主要是為了驗證只有幾十個參數的人為構建的標準模型,其包含的信息量也沒有超過這個模型。在很多時候,理論的提出或者發展,可以用到很少的數據,甚至幾乎不用數據。伽利略構建其運動學的時候,應該只依據很少的觀測。而泰勒斯提出原子理論的時候我相信是沒有什么觀測數據的。理論的魅力在于可以從人的經驗,思維或者直覺中生產,具有內在的簡潔性卻能解釋大量的現實觀測。
對數據的內在追求,導致人工智能研究中有很多重勞力的部分。和產業的結合,資本的進入進一步放大了這一效應。國內人工智能創業公司不斷涌現,數據標注儼然已經成為一種新的職業。已經有不少相關的報道,比如可以參考甲子光年的《那些人工智能背后的人工》一文。這些人每個月拿著4000左右的工資,在電腦前機械的點著鼠標做圖片標注,得到的數據最終用于無人駕駛項目。還有很多下到村里收集人臉識別數據的,報酬是洗衣粉或者豆油。即使是科學研究逐漸資本化的今天,也很難想象一門學科可以像這樣直接催生新的勞動關系。這也部分由于我們要談的第二個問題,也就是人工智能研究非常工程化。
如果上過吳恩達老師的深度學習課程,就會發現,深度學習在工程上非常先進,具有一套非常清晰的工作模式。對于一個深度網絡模型,那些參數具有最大的影響,如何通過表現判斷調節參數的方向,人們有著豐富的經驗。最終決定表現的還是數據質量,規模,以及特征(feature)選取。這就導致了人工智能領域的工作,非常容易scale-up,也就是規模化。這也是硅谷最喜歡的發展模式--通過資本催化迅速實現技術飛越和革新。類似的模式造就了我們熟悉的facebook,amazon,現在的互聯網移動互聯網世界。
在數理科學領域,我們不能簡單通過積累用戶或者數據獲得革新。一般情況下,理論的發育程度對應了工程范疇的發展程度。新的工程實踐可能要求理論的創新,而理論的進步又可以拓展人們進行工程化創造的能力。沒有愛因斯坦的質能方程,我想人們試再多年,有再多數據也不會造出原子彈。所以人工智能可以算是一朵奇葩,感謝計算能力的巨大發展,它工程的發展程度已經可以跟理論脫節。這種缺乏理論或者認識論會帶來比較嚴重的后果,我們后面會有所述及。
人工智能沒有催生理念的進步
對人工智能最大的批評在于它的可詮釋性,人們難以理解越發龐大的深度網絡是如何發揮它的作用,每個節點有著怎樣的功能。拿圖像識別任務來說,比較早期的深度網絡AlexNet有35K個參數。到了2014年,VGG16網絡有138M個參數。在強大的表現背后,是一個人們從未接觸過的,難以理解的龐大造物(考慮到標準模型只有19個自由參數)。關于如何解讀網絡,現在逐漸有一些工作。但似乎還沒有令人信服的結果。在數學上可能也沒有成熟的工具來針對這類問題。神經網絡算法的提出,最開始是受到了生物學研究,尤其是神經研究的啟發。不過即使針對比較簡單的模式生物,比如只有302個神經元的線蟲,我們也剛剛能理解一些最簡單行為,比如趨熱或者趨冷在神經系統里細胞層面是如何編碼的。詮釋神經網絡的工作,一方面受制于網絡規模的飛速增大,參數的急劇膨脹,以及應用場景的逐漸復雜。另一方面,這本身可能就是不可解的問題,類似于我們本身都不知道大腦是如何運作,產生復雜思維。
沒有理論的學科會造成很多問題,可以參看我之前的博文《沒有理論的學科會怎么樣》。針對人工智能這一領域,第一個負面結果是會造成邊際效益遞減。也就是隨著數據規模的增大,網絡復雜度的增大,獲得的進步越來越少。我們談到深度學習一個重要的特征是表現隨著數據體量增大而提高,這也是為什么大數據時代最適合深度學習。有時候我們覺得參數的膨脹標志著一種進步。但從物理學的角度看,這其實是退步--因為這標志著參數解釋力的下降。這正是現實發生的情況,但即使我們在計算能力以及數據規模(感謝資本)上大躍進,表現的提高卻越來越慢。還是拿圖像識別為例,AlexNet的錯誤率是16.4%,而參數增加了4000倍的VGG網絡錯誤率是7.3%,基本錯誤減半。換過來說,是35K個參數可以識別83.6%的圖片,多出幾千倍的參數只多識別了9.1%的圖片,效能加起來只有接近九分之一。這也是為什么每當人工智能進入一個新的領域時,往往可以產生激動人心的初步結果(因為數據要求低),但對表現的改善卻是趨于更慢的。這對于一些要求苛刻的領域這其實是致命的,比如對于自動駕駛,我們必須把失誤控制在非常低的水平(每次失誤可能都會造成致命的事故),而現實情況又非常復雜多變,有些情況不僅靠訓練,也要靠應變和經驗上的判斷。
沒有理論的另一個負面結果是研究過程近似于盲人摸象。雖然我們也有越來越多的網絡模型,但這些模型的構建似乎更受到靈感的作用,而不是通過理論的啟發。這種try and error類型的研究,試對了就好,試不對就重來,運氣的成分會比較大。從理念上看,深度學習領域似乎還沒有根本上的創新,其最大的進步似乎還是計算力上的進步,工作的模式仍然接近于對生物神經系統的模仿。而這種模仿其實并不能算是效率很高的模仿,我相信人腦完成復雜任務計算的效率平均講還是高于神經網絡的。至少從計算時間和所需能量來講是遠優于計算機的。人腦的功率據說是20W左右,而現在好點的英偉達顯卡比如GeForce GTX 1080Ti的功耗已經到了200W大關了。好在現在計算力不是瓶頸,再低的效率乘上龐大的計算力都能得到可觀的結果。
人工智能從應用方式和應用場景上,都是對人的一些基本能力的模仿。吳恩達老師有過一個說法,說如果一個問題,人可以憑借直覺在幾秒內判斷出來,那么就有可能用人工智能來解決。現在出現比較多的也的確是這類問題,比如對于圖像識別,到底是貓是狗,人一般幾秒鐘就能看出來。或者在自動駕駛方面,在一個路口是要剎車還是左轉,正常的司機幾秒鐘也能判斷出來。所以說人工智能是對人的能力的再現,這使得它在一些場景下可以代替人工,提高生產效率。但它難以完成更高級的一些思維活動,比如創造性思維。雖然有些“靈感一現”發生的時間也很短,但目前的計算框架并不具備相應的發散性,聯想性和隨機性。所以深度學習研究不僅自身缺乏理論,而且也很難為其他學科領域帶來新的理論。根本的區別在于數理科學的研究具有不同的工作模式,一般包括假設提出,理論發展和實驗驗證,三者之間相互促進。其中假設的提出是最為關鍵的一步,也是研究設計的基礎。人工智能在這第一步就敗下陣來。人怎么能夠提出假設,這是一個復雜的問題。但其基本原因,脫不開人是有自我意識的,對世界的認識是自由的,人的思維也是自由的。人工智能有沒有思維,有沒有意識是另外的話題,但目前來看它的訓練數據都是高度單一的,它的結構或者結構的規則也是比較單一的,難以形成更復雜的思維結構。
人工智能與社會發展
所以綜上人工智能最佳的應用場景是對人類勞動的部分替代。人工智能的革命,可能是生產效率的革命,類似于工業革命把人的雙手解放出來。但現在還很難講它在產業上會不會產生類似工業革命的影響,主要的區別可能有幾點,第一,現在社會一般性產品的生產基本已經飽和,需要更多的是創新性產品,消費主要為了提高生活品質,也就是所說的“滿足美好生活需要”。在生產創新性產品和服務方面,還沒有看到人工智能的優勢。第二,全球經濟發展不平均(以及國內發展不平衡)造成的大量的低成本勞動力,在一些場景下替代這部分勞動力效益不高。舉一個極端的例子,一些創業公司搞線上的人工智能產品或者demo,背后其實可以在人力成本比較低的地方雇真人來做,這也是實際發生過的事情。如果人力成本很低,電子化的人不一定能競爭過肉身的人。如果有一天人力成本都很高了,我們可能就進入共產主義社會了。我懷疑人工智能最危險的地方在于它對社會治理和網絡治理的影響,而且這種影響很可能是負面的。這里就不展開多說了。
另外像我提到的,人工智能對生產力的解放是有限的,它還難以替代創造性勞動,尤其是科研活動。我們支持人工智能是合理的,all-in人工智能是危險的。基礎研究還應該受到重視,目前看這是唯一可能導向新技術革命的路徑。不重視基礎研究,永遠會被人落在后面。