加拿大工程院院士、加拿大約克大學張丹教授也認為,人工智能現在發展非常快,但人們要冷靜地思考一下,其實夸大的東西有很多。“像索菲亞等機器人都是假的,其實現在人類跟機器人之間的對話是不可能的。”他說。
“美國人指責研究索菲亞的漢森是個騙子,不過它本質上就是一個娛樂產品”,張鈸以此為例道,“我想告訴大家,免得大家做產業的時候定太高的指標,太高的指標你實際上是做不了的,像索菲亞那樣只能是騙人。”
機器人的發展離不開人工智能,人們常說,人工智能的發展依賴于三大因素:即算法、數據、算力。但張鈸院士認為,其實最關鍵的不是這三個,而是“應用場景”。他說:“實際上所有的企業多多少少都擁有算法、數據和算力,但為什么有的企業成功,有的企業不成功,最重要的原因就是應用場景沒有選好,這是一個最大的問題。”
眾所周知,在人工智能醫療健康領域,很多公司在進行癌癥診斷的研究,一些研究結果宣稱人工智能的識別率接近甚至超過了人類。有這么好的技術,去辦一個企業,或者把它應用到醫療里,是不是就能成功?是不是就能用了呢?結果令人失望,張鈸表示,即便IBM公司所引以為豪的Watson,在實踐中也給出了“多個不安全、不正確治療意見”,甚至“給有出血癥的癌癥病人開了容易導致出血的藥品,嚴重時可致患者死亡。”
北京航空航天大學機器人研究所名譽所長王田苗教授在另一個場合說:“Watson花了幾百億,在醫療方面目前陷入了低谷,在判斷癌癥和手術方案時,醫生很難理解它的判斷和方案,詢問的時候它又回答不上來,于是很多合作醫院退出了。”
事實上,對于人工智能系統的不可解釋性,Watson無疑是一個最好的例證。張鈸表示,人工智能在醫療健康中應用需要解決的問題,除了個人數據的隱私與保護,以及規章與制度改革外,首當其沖的就是人工智能系統的可解釋性與魯棒性。“實際上存在著這樣的問題,如果智能圖像識別告訴醫生說這個病人有癌癥,那醫生相信不相信它?如果它診斷錯了,誰的責任?所以企業聲稱自己的識別率超過了人,但是給醫生用的時候,醫生還是不放心。”張鈸院士認為,這其實是深度學習的一個最重大的問題,就是不可解釋性。“而且它的魯棒性非常差,很容易被欺騙,你可以設計一個噪聲給它,它可以識別成為任何一個東西。換句話說,它基本上不知道什么是癌癥,它不是根據醫生抽取的特征來識別癌癥,而是從大量數據中間隨便找,找到那些有區別的地方”,張鈸強調,“機器做出來的診斷,跟醫生做出來的診斷有著根本性的不同,正因為這種不同,所以醫生不敢用它,盡管你的識別率可能比人還要高。”
現在人們對深度學習推崇備至,但張鈸院士說:“用深度學習進行的結果,看起來它的識別率比人高,但是它用的原理跟人是不一樣的。所以用這樣的機器來協助人,讓它做決策、看病和做其他決策,人是不放心的。”因此,他認為人工智能的成功除了數據、算法、算力三大要素,離不開一個更重要的因素就是知識。“在天津剛剛結束的一個知識圖譜的會議上,參加的800多人中,1/3來自企業,那些企業都是做的很成功的,他們靠的不是數據,而是知識,現在很多企業比學校和研究單位更早地認識到知識的重要性。”張鈸院士認為,用深度學習的方法做醫學圖像識別,必須要加進醫生看圖片的知識和經驗,否則,僅靠數據得出來的結果跟醫生無法實現交互,醫生也無法相信,自然也不會使用。
張丹表示,深度學習是不可能代替所有的技術的,“深度學習確實在人臉識別和語言合成等方面做了很大貢獻,但是它的深度學習其實是基于大量數據規律總結出來的,跟人學習的過程完全不一樣。所以深度學習是不可能完全代替人的”。
那么,在什么樣的應用場景下,人工智能更容易成功呢?張鈸院士歸結為五點:一是要掌握豐富的數據或知識;二是完全信息;三是確定性信息;四是靜態與結構化的環境;五是有限的領域或單一的任務。
基于此,張鈸認為那些容易被機器取代的工作崗位,主要做的是規范性的日常事務,如收銀員、零售服務員、辦公文員、飯店服務員、記賬員、會計、審計等,就是照章辦事。不容易被機器取代的工作崗位,則是不照章辦事的,如動態變化環境、不完全信息、不確定性、多領域多任務等。
同樣,考慮到動態與不確定環境,張鈸院士認為,在類似北京的大街上,無人駕駛短期內是根本不可能實現的。“深度學習的方法是靠樣本來學習,不可能把所有的情況都學到,因為你不能估計到行人會怎么做,他會怎么過馬路。因此靠它來應對突發的事件,深度學習是不可能做到的,產業界必須要考慮到這個問題的難度。”他說。
對于人工智能的產業化,張鈸院士表示,人工智能剛剛起步,大量研究任務需要去做,需要建立良好的“政產學研”合作機制。同時必須要和實體經濟結合才能創造價值,因為人工智能是一個應用型學科,理論做的非常好不行,必須要解決實際問題,特別是要與地方的實際相結合,選擇合適的應用場景發展。