Judea Pearl對人工智能的發展貢獻良多。在20世紀80年代,在他的努力之下,機器掌握了依據概率進行推理的能力。現在他是該領域最尖銳的批評者之一。在他的新書《 The Book of Why: The New Science of Cause and Effect》中,他認為人工智能由于不完全理解智力的本質而陷入瓶頸。
三十年前,人工智能研究面臨的一個主要挑戰就是編程機器如何將潛在的原因與一系列可觀察的條件聯系起來。Pearl想出了一種名為Bayesian網絡的方法。Bayesian網絡使機器更學習有了實踐性意義,比如說有一個病人剛從非洲回來,發燒而且全身疼痛,那機器可能會得出他患有瘧疾。2011年,Pearl獲得了計算機科學領域的最高榮譽——圖靈獎,主要在于表彰他這項工作的成就。
人工智能發展道路上的瓶頸
但正如Pearl所見,人工智能領域目前陷入了概率關聯的瓶頸之中。如今,新聞吹噓著機器學習和神經網絡的最新突破,我們讀到的文章也是關于電腦掌握圍棋和學會駕駛汽車的。Pearl對此則頗為淡定,他認為如今的人工智能技術只是在前一代人成果的基礎上進行的微微升級——在一組大數據中發現隱藏的規律——罷了。他最近說:“深度學習領域所有令人印象深刻的成就都只是曲線擬合而已。”
現年81歲的Pearl在他的新書中闡述了智能機器如何思考的愿景。他認為,關鍵在于用因果推理來取代關聯推理。機器需要的是瘧疾引起發燒的原因,而不是僅僅將發燒和瘧疾聯系起來的能力。一旦這種因果關系框架確立下來,機器就有可能提出反事實的問題——在某種外界干涉條件下因果關系會如何變化——Pearl認為這是科學思想的基石。Pearl還提出了一種正式的語言,讓這種想法成為可能——這是21世紀版本的Bayesian框架,允許機器在概率的基礎上進行思考。
Pearl認為,因果推理可以使機器擁有人類水平的智力。他解釋說,它們能夠更有效地與人類交流,甚至可以成為具有自由意志和做惡能力的道德實體。最近,在San Diego的一次會議上,《Quanta Magazine》對Pearl通過電話進行了訪談。以下是經過編輯和精簡的對話。
Kevin Hartnett:為什么給你的新書起這么一個名字?
Judea Pearl:它總結了我在過去25年里一直在做的關于因果關系的工作,它是我們如何應對那些內在原因問題的答案。奇怪的是,這些問題已經被科學拋棄了。所以我這么做是為了彌補那些忽視的。
Hartnett:科學已經拋棄了因果關系,聽起來非常搞笑,這難道不是科學研究的全部內容嗎?
Pearl:當然,但是你儼然已經無法在那些方程式中看到它了。代數的語言是對稱的,如果x告訴了我們y,那么y也會告訴我們x,我講的是確定性關系。例如,風暴即將來臨,氣壓計一定是下降的。
Hartnett:幾十年前,你在人工智能領域取得了成功。你不如說一說當時人工智能發展和研究的情況?
Pearl:20世紀80年代初我們遇到的問題屬于預測性或診斷性問題。醫生會從病人身上觀察一系列癥狀,并希望得出病人患瘧疾或其他疾病的可能性。我們想要弄出一套自動化系統以代替專業人員——無論是醫生,礦產資源管理人員,還是其他一些付費專家。所以在這一點上,我想到了一個在概率上可行的方法。
不過,麻煩的一點在于,計算標準概率需要指數空間和指數時間,所以我只好想出了一個叫Bayesian網絡的方案。
Hartnett:然而,在你的新書中,你把自己描述為當今人工智能社區的一個“反叛者”,這又是什么情況呢?
Pearl:這么說吧,當我們開發出的工具使機器能夠以不確定性為基礎進行推理時,我就轉而去追尋另一項更具挑戰性的任務了——因果推理。我的許多同事仍然在研究不確定性推理。有一些研究小組繼續研究診斷性問題,而不擔心問題的因果關系。他們想要的只是預測和診斷準確。
我可以舉個例子——我們今天看到的所有機器學習的工作都是在診斷模型中進行的,比如把物體標記為“貓”或“老虎”。“他們不關心外部情況變化,他們只是想要識別出一個物體并預測它將如何隨著時間的推移而變化。
當我開發出了強大的預測工具后,我覺得這只是人類智慧的冰山一角。如果我們想讓機器有著更高級別的認識能力,我們就必須加入因果模型,關聯模型還不夠。
Hartnett:大家都對人工智能抱有興奮感,但你沒有。
Pearl:就像我研究深度學習所做的一樣,我發現它們都只停留在關聯的層次上。可以說,所有令人印象深刻的深刻學習成就都只是因為曲線擬合,雖然這么說有點褻瀆的意味。從數學層次的角度來看,無論你如何巧妙地操作數據,以及在操作的過程中讀到了什么數據,哪怕再復雜,也仍然是只是曲線擬合的練習。
曲線擬合和因果關系
Hartnett:看樣子你對機器學習并不怎么感冒。
Pearl:不,事實恰恰相反,我相當感冒,因為我們沒有預料到有那么多問題可以通過純曲線擬合來解決。事實證明它們確實可以通過擬合來解決。但你要明白,我所談及的是未來——接下來會發生什么?你需要看看有哪個機器人科學家正在計劃某項實驗,并為懸而未決的科學問題找到新的答案。這是下一步。我們還想跟一個有意義的機器——有意義的機器是說它能夠跟我們的直覺相匹配——進行一些交流。如果你剝奪了機器人對因果的直覺,你就永遠不會獲得什么有意義的交流。這樣一來機器人也不可能像你或我一樣,說“我本該做得更好的”。因此,我們其實是失去了一個重要的溝通渠道。
Hartnett:讓機器能夠跟我們一樣有著因果推論能力,這一研究成果未來的前景如何?
Pearl:我們必須給機器匹配一個環境模型,即讓它們將周圍環境納入考量范圍。如果一臺機器無法去識別和依托現實,你就不能指望機器在實際應用中有任何智能的行為。所以人們必須可以將現實的模型進行編程并嵌入機器,這一步大約會在十年之內實現。
下一步將是機器自行假設這些模型,并根據經驗證據來驗證和完善它們。這一過程有點兒像科學認識進步的軌跡——我們從地心說開始,從行星軌道是遠行開始,到最后認識到日心說和行星軌道是橢圓的。
然后機器人們也會相互交流,并將這個假想的世界,這個狂野的世界“轉譯”為隱喻的模型。
Hartnett:對你你的這種設想,如今的人工智能從業者有什么反饋嗎?
Pearl:人工智能界目前四分五裂著。首先,有一些人正陶醉在機器學習和深度學習以及神經網絡的成功之中,以為實現了天大的成就。他們不明白我在說什么。他們還想繼續沿著曲線擬合的路子走下去。但是,當你和那些除了統計學習以外的人工智能領域從業者交談時,他們立刻就能明白問題之所在。在過去的兩個月里,我看了好幾篇關于機器學習的局限性的文章。
Hartnett:你是說機器學習領域其實是有偏離如今進展的新的發展趨勢了嗎?
Pearl:不不不,不能說是什么趨勢,應該說是一種反省吧,一種人真的自我反省,我們需要捫心自問——我們在往何處去?我們下一步該怎么走?
Hartnett:沒錯,這正是我最不想問你的事。
自由意志和作惡能力
Pearl:你知道嗎,我倒是很高興你沒問我關于自由意志的的事兒。
Hartnett:在這種情況下,你認為自由意志是什么?
Pearl:未來有自由意志的機器人一定會出現的,這一點毋庸置疑。我們必須了解如何對它們進行編程,以及從它們那里獲得什么。出于某種原因,在進化過程中,這種自由意志被發覺在計算科學層面上是可取的。
Hartnett:哦?這怎么說?
Pearl:這么說吧,你本人是有自由意志的,我們也是在進化中有了使這種感覺的。顯然,這種感覺提供了一些計算功能。
Hartnett:當機器人有自由意志的時候,我們能不能立即辨別出來?或者說,它們的自主意愿會不會表現的非常明顯?
Pearl:如果說機器人們開始互相交流,并表示說“你本可以做得更好的”,那么這就是自由意志的一個典型例證。如果一組運動機器人——比如說機器人足球隊——它們之間開始用這種語言進行交流的時候,我們就會知道他們已經有屬于自己的意志存在了,比如說什么,“你當時應該把球傳給我的,我都等了你好久了,結果你并沒有這么做!”“你本該”這種措辭表明了不管情況多么緊急,你都能掌握住局面,但是實際上你卻沒有。所以第一個證據是交流用語,第二個證據是一場踢得蠻出色的足球賽。
Hartnett:那既然你都說到了自由意志的問題了,那我還是覺得得問問你關于人工智能有“作惡能力”的問題,我們通常認為這是取決于你做出選擇的能力。所以,什么是邪惡?
Pearl:邪惡是一種信念,我們一般認為這個時候你的貪婪或者說不滿已經取代了社會的所有行為及道德規范。比如說一個人的思維里可能會有一個小人在耳邊說,“你餓了,所以你可以做任何事,只要能填飽肚子就行”,但你的思維里還會有其他的小人,它們在你的耳邊不斷地提醒你,引導你遵循社會的道德及行為規范,其中的一個小人名叫“同情”。所以,當你把你的貪婪或不滿提升到社會標準之上時,那就是邪惡了。
Hartnett:那么,當人工智能有能力去作惡時,我們該怎么知道呢?
Pearl:有一些軟件程序——這些程序是我們在過去學習的基礎上編制的、用來規范或者期望機器人的行為的——如果我們發現機器人一而再、再而三地忽略或者違反它們時,恐怕就可以判定它們擁有作惡的能力了。