“機器綜合智能水平和人腦相差較大,機器學習需要較多人工干預,不同人工智能模態之間交互協同較少……”近日,在香港召開的第S43次香山科學會議上,與會科學家細數當前人工智能發展面臨的瓶頸。
解鈴還須系鈴人,人工智能的發展也不例外。科學家意識到,想要走得更遠,人工智能還要回到出發的地方,那便是人類智能。
神經科學提供基礎
“以深度學習為代表的機器學習方法在視聽覺感知等具體問題上媲美甚至超越人類的水平。”會議報告中,作為一名神經科學家,中科院神經科學所研究員蒲慕明院士為人工智能在過去幾十年的發展點贊。不過,他同時看到,與人腦的學習能力相比,機器學習在可解釋性、推理能力、舉一反三能力等方面存在明顯差距。
讓機器向人學習,是提升“智能”水平的重要方向。會議執行主席、香港科技大學副校長葉玉如院士指出:“目標是在多個層面,理論上模擬大腦的機制和結構,開發一個更具有普遍性的AI以應對包括多任務、自學習和自適應等方面的挑戰。”
“受腦啟發”是人工智能最重要的發展方向。近年來,腦科學研究正在從傳統的認識腦、了解腦向保護腦再向增強腦、影響腦的過程發展,即完成從“讀腦”到“腦控”再到“控腦”的轉換。學習大腦的信息處理機制,建立更強大和更通用的機器智能是非常有前景的。通過多學科交叉和實驗研究獲得的人腦工作機制更具可靠性,有望為人工智能未來發展提供基礎。
另一方面,人工智能可以對神經學和腦科學在數據收集、標注和建模等方面提供技術支持促進腦科學的發展。
打破“馮·諾依曼架構”
面向通用的人工智能離不開類腦計算芯片。清華大學精密儀器系教授、類腦計算中心主任施路平表示:“作為一種借鑒人腦存儲處理信息方式發展起來的新技術,類腦計算將是人工通用智能的基石。”
打破“馮·諾依曼架構”成為借鑒人腦信息處理方式的重要途徑。據了解,在“馮·諾依曼架構”中,計算模塊和存儲單元互相分離,CPU在執行命令時必須先從存儲單元中讀取數據。每一項任務,如果有十個步驟,那么CPU會依次進行十次讀取、執行,再讀取、再執行,時間和功耗都花費在數據讀取上,限制了數據處理能力。這與大腦處理大量外界信息卻能耗極低的現象大相徑庭。
類腦計算有望把類似大腦的突觸做到芯片上。今年5月,北京大學計算機科學技術系教授黃鐵軍課題組聯合多家單位實現了靈長類視網膜中央凹神經細胞和神經環路的精細建模,提出了模擬視網膜機理的脈沖編碼模型,研制成功仿視網膜芯片。
“視網膜超速全時視覺芯片像生物視網膜一樣采用神經脈沖表達視覺信息,脈沖發放頻率‘超速’人眼百倍,能夠‘看清’高速旋轉葉片的文字,‘全時’是指從芯片采集的神經脈沖序列中重構出任意時刻的畫面。”黃鐵軍介紹說,“這是實現真正機器視覺的基礎,有望重塑視覺信息處理體系,為無人駕駛、機器人、視頻監控等領域帶來變革。”
不過,神經突觸芯片還在實驗室階段,尚未走向實用。與會專家認為,類腦計算是一場令人興奮又望而生畏的艱難挑戰。
尚存三大隱憂
《中國AI發展報告2018》顯示,自2013年以來,全球和中國人工智能行業投融資規模都呈上漲趨勢。與會專家注意到,目前國內跟人工智能有關的公司有4000多家,但是能夠得到投資人青睞或關注、愿意投資的公司,卻不到三分之一。過度依賴國外現成源代碼、商業應用路徑不明確及專業人才稀缺是當前人工智能企業的三大隱憂。
自2015年以來,谷歌、臉書、亞馬遜等紛紛發布機器學習的開源軟件,導致我國企業采用大量現成的源代碼。在科學家看來,這仿佛在起跑線上喪失優勢,工藝再精深也是在別人的體系中做零部件的更新改造。對此,應重點突破基礎領域,針對人工智能底層技術,加強對以深度學習為代表的底層算法模型的深入研究。
而對于商業應用路徑不明確,專家建議企業不要太盲目,應盡快找準發力方向,AI項目商業應用場景能否落地是其成敗的關鍵,快速積累核心技術優勢,打造商業模式,才能做出真正有市場需求的產品。同時,應堅持實事求是的發展路線,避免人工智能熱潮演變成一次“大躍進”,透支研究和實業資本資源。