在人工智能界有一種說法,認為機器學習是人工智能領域中最能體現智能的一個分支。從歷史來看,機器學習似乎也是人工智能中發展最快的分支之一。
在二十世紀八十年代的時候,符號學習可能還是機器學習的主流,而自從二十世紀九十年代以來,就一直是統計機器學習的天下了。不知道是否可以這樣認為:從主流為符號機器學習發展到主流為統計機器學習,反映了機器學習從純粹的理論研究和模型研究發展到以解決現實生活中實際問題為目的的應用研究,這是科學研究的一種進步。
平時由于機器學習界的朋友接觸多了,經常獲得一些道聽途說的信息以及專家們對機器學習的現狀及其發展前途的評論。在此過程中,難免會產生一些自己的疑問。借此機會把它寫下來放在這里,算是一種“外行求教機器學習”。
◆ ◆ ◆
一問:符號學習該何去何從
問題一:在人工智能發展早期,機器學習的技術內涵幾乎全部是符號學習。可是從二十世紀九十年代開始,統計機器學習猶如一匹黑馬橫空出世,迅速壓倒并取代了符號學習的地位。人們可能會問:在滿目的統計學習期刊和會議文章面前,符號學習是否被徹底忽略?它還能成為機器學習的研究對象嗎?它是否將繼續在統計學習的陰影里生活并茍延殘喘?
對這個問題有三種可能的回答:一是告訴符號學習:“你就是該退出歷史舞臺,認命吧!”二是告訴統計學習:“你的一言堂應該關門了!”單純的統計學習已經走到了盡頭,再想往前走就要把統計學習和符號學習結合起來。三是事物發展總會有“三十年河東,三十年河西”的現象,符號學習還有“翻身”的日子。
第一種觀念我沒有聽人明說過,但是我想恐怕有可能已經被許多人默認了。第二種觀點我曾聽王玨教授多次說過。他并不認為統計學習會衰退,而只是認為機器學習已經到了一個轉折點,從今往后,統計學習應該和知識的利用相結合,這是一種“螺旋式上升,進入更高級的形式”,否則,統計學習可能會停留于現狀止步不前。王玨教授還認為:進入轉折點的表示是Koller等的《概率圖模型》一書的出版。至于第三種觀點,恰好我收到老朋友,美國人工智能資深學者、俄亥俄大學Chandrasekaran教授的來信,他正好談起符號智能被統計智能“打壓”的現象,并且正好表達了河東河西的觀點。全文如下:“最近幾年,人工智能在很大程度上集中于統計學和大數據。我同意由于計算能力的大幅提高,這些技術曾經取得過某些令人印象深刻的成果。但是我們完全有理由相信,雖然這些技術還會繼續改進、提高,總有一天這個領域(指AI)會對它們說再見,并轉向更加基本的認知科學研究。盡管鐘擺的擺回還需要一段時間,我相信定有必要把統計技術和對認知結構的深刻理解結合起來。”
看來Chandrasekaran教授也并不認為若干年后AI真會回到河西,他的意見和王玨教授的意見基本一致,但不僅限于機器學習,而是涉及整個人工智能領域。只是王玨教授強調知識,而Chandrasekaran教授強調更加基本的“認知”。
◆ ◆ ◆
二問:“獨立同分布”條件對于機器學習來講必需嗎
問題二:王玨教授認為統計學習不會“一帆風順”的判斷依據是:統計機器學習算法都是基于樣本數據獨立同分布的假設。但是自然界現象千變萬化,王玨教授認為“哪有那么多獨立同分布?”這就引來了下一個問題:“獨立同分布”條件對于機器學習來講真的是必需的嗎?獨立同分布的不存在一定是一個不可逾越的障礙嗎?
無獨立同分布條件下的機器學習也許只是一個難題,而不是不可解決的問題。我有一個“胡思亂想”。認為前些時候出現的“遷移學習”也許會對這個問題的解決帶來一線曙光。盡管現在的遷移學習還要求遷移雙方具備“獨立同分布”條件,但是不能分布之間的遷移學習,同分布和異分布之前的遷移學習也許遲早會出現?
◆ ◆ ◆
三問:深度學習代表了機器學習的新方向嗎?
問題三:近年來出現了一些新的動向,例如“深度學習”、“無終止學習”等等,社會上給予了特別關注,尤其是深度學習。但它們真的代表了機器學習的新的方向嗎?包括周志華教授在內的一些學者認為:深度學習掀起的熱潮也許大過它本身真正的貢獻,在理論和技術上并沒有太多的創新,只不過是由于硬件技術的革命,計算機速度大大提高了,使得人們有可能采用原來復雜度很高的算法,從而得到比過去更精細的結果。當然這對于推動機器學習應用于實踐有很大意義。但我們不禁要斗膽問一句:深度學習是否又要取代統計學習了?
事實上,確有專家已經感受到來自深度學習的壓力,指出統計學習正在被深度學習所打壓,真如我們早就看到的符號學習被統計學習所打壓。不過我覺得這種打壓還遠沒有強大到像統計學習打壓符號學習的程度。這一是因為深度學習的“理論創新”還不明顯;二是因為目前的深度學習主要適合于神經網絡,在各種機器學習的方法百花盛開的今天,它的應用范圍還有限,還不能直接說是連接主義方法的回歸;三是因為統計學習仍然在機器學習中被有效的普遍采用,“得到多助”,想拋棄它不容易。
◆ ◆ ◆
四問:只有統計方法適合于在機器學習方面應用嗎?
問題四:機器學習研究出現以來,我們看到的主要是從符號方法到統計方法的演變,用到數學主要是概率統計。但是,數學之大,就像大海,難道只有統計方法適合于在機器學習方面應用嗎?
當然,我們也看到看了一些其他數學分支在機器學習上的應用的好例子,例如微分幾何在流形學習上的應用,微分方程在歸納學習上的應用。但如果和統計方法相比,它們都只能算是配角。還有的數學分支如代數可能應用得更廣,但是在機器學習中代數一般是作為基礎工具來使用,例如矩陣理論和特征值理論。又如微分方程求解最終往往歸結為代數問題求解。它們可以算是幕后英雄:“出頭露面的是概率和統計,埋頭苦干的是代數和邏輯”。
是否可以想想以數學方法為主角,以統計方法為配角的機器學習理論呢?在這方面,流形學習已經“有點意思”了,而彭實戈院士的倒排隨機微分方程理論之預測金融走勢,也許是用高深數學推動新的機器學習模式的更好例子。但是從宏觀角度看,數學理論的介入程度還遠遠不夠。這里指的主要是深刻的、現代的數學理論,我們期待著有更多數學家參與,開辟機器學習的新模式、新理論、新方向。
◆ ◆ ◆
五問:符號機器學習時代和統計機器學習時代的鴻溝在哪里?
問題五:上一個問題的延續,符號機器學習時代主要以離散方法處理問題,統計學習時代主要以連續方法處理問題。這兩種方法之間應該沒有一條鴻溝。
流形學習中李群、李代數方法的引入給我們以很好的啟示。從微分流形到李群,再從李群到李代數,就是一個溝通連續和離散的過程。然后,現有的方法在數學上并不完美。瀏覽流形學習的文獻可知,許多理論直接把任意數據集看成微分流形,從而就認定測地線的存在并討論起降維來了。這樣的例子也許不是個別的,足可說明數學家介入機器學習研究之必要。
◆ ◆ ◆
六問:大數據給機器學習帶來了本質影響嗎?
問題六:大數據時代的出現,有沒有給機器學習帶來本質性的影響?
理論上講,似乎“大數據”給統計機器學習提供了更多的機遇,因為海量的數據更加需要統計、抽樣的方法。業界人士估計,大數據的出現將使人工智能的作用更加突出。有人把大數據處理分成三個階段:收集、分析和預測。收集和分析的工作相對來說已經做得相當好了,現在關注的焦點是要有科學的預測,機器學習技術在這里不可或缺。這一點大概毋庸置疑。然而,同樣是使用統計、抽樣方法,同樣是收集、分析和預測,大數據時代使用這類方法和以前使用這類方法有什么本質的不同嗎?量變到質變是辯證法的一個普遍規律。
那么,從前大數據時代到大數據時代,數理統計方法有沒有發生本質的變化?反映到它們在機器學習上的應用有無本質變化?大數據時代正在呼喚什么樣的機器學習方法的產生?哪些機器學習方法又是由于大數據研究的驅動而產生的呢?
作者丨陸汝鈴,中國科學院數學與系統科學研究院數學研究所研究員、復旦大學教授。在知識工程和基于知識的軟件工程方面作了系統的、創造性的工作,是中國該領域研究的開拓者之一。1999年當選為中國科學院院士。