電腦視覺與AI 領域專家Filip Piekniewski 并不這么認為,近日在博客的一篇文章中,Piekniewski 也詳細談及對于現今AI 發展進度的看法,在他看來,已經有許多跡象都顯示出AI 產業的「凜冬將至」。
Piekniewski指出,在ImageNet獲得不錯的解決方案時,許多該領域的知名研究人員都積極的受訪并采用相同的論調表示:人們正處在一場巨大的革命前面,從現在開始,所有AI發展只會加速。
然而許多年過去了,期待中的加速并未發生,這些受訪的研究人員也不再那么活躍的鼓吹相同的想法,隨著情緒降溫,他們開始不將深度學習形容為終極演算法,AI 相關論文也從「革命」一詞逐漸改變為「進化」。
相較起前者,進化聽起來要溫和且緩慢許多,而這似乎也更為符合AI 發展的現實情況。Piekniewski 指出,包含OpenAI 在內,許多知名研究單位近期都開始變得相對安靜,自AlphaGo Zoro 問世后Deepmind 也并未再展現任何更為驚奇的事物,甚至一些論述指出,Google 其實不太確定該如何處理Deepmind,因為團隊得出的研究成果明顯不如原先預期的「那么實際」。
除此之外,Piekniewski 也觀察到一些大型科技企業的杰出AI 研究人員,都開始從實際操作的研究負責人轉任至協助游說政府資助的職務上,他認為這種細微轉變跡象顯示,像是Google、Facebook 這些公司對AI 研究的興趣實際上正在慢慢收斂。
至于深度學習所面臨的瓶頸,Piekniewski 認為自動駕駛(self-driving)技術在現實世界的實際應用便是最明顯的例子,除了Nvidia、Tesla 在發展自駕技術上都遇到困難, Uber 自駕車在亞利桑那州的死亡車禍更是能夠用來做最好的說明。
從NTSB的初步報告中,除了能明顯看出系統設計的問題之外,最為驚人的莫過于發現系統花費了很長一段時間,去試圖判斷眼前的物體究竟是什么(行人、腳踏車、車輛或其他),而不是做出在該情況下最重要、也是邏輯上唯一該做的決策:確保不會碰撞它。
這與人對危機的處理方式并不相同。Piekniewski 指出,盡管人們經常在交通事故后說出當下的判斷標準,像是「我看到前方有騎士所以轉向左邊避開它」,但許多心理物理學(Psychophysics)文獻都曾經提出解釋,人們往往是在當下透過神經系統迅速將其判斷為障礙并采取行動,等到一小段時間過后才會意識到發生了什么,并試著將其組織為言語進行說明。
這并不僅限于駕駛行為,其實每天我們都會做出許多沒有言語化的的決定,因為言語化是「昂貴的」,需要花費時間,而現實生活中的許多情況并無法提供時間。
這種生存機制來源已久,數十億年來都保護著我們的安全,而在駕駛車輛時,人們自然也就使用到這樣的原始反應,由于這些反應并非專為駕駛行為發展,自然偶爾也會因為這些反射神經引發一些事故。然而整體上來說,這種對空間、速度及周遭警覺的原始能力,對于人類安全仍舊有著許多保障。
只是這種能力大多無法用言語來描述,也難以進行測量,這使得研究人員難以對機器進行這方面的系統改良,Nvidia 過去所提出的End-to-End 方法雖然理論上可行,但從現實一些測試中我們也可知道情況并非這么簡單。
在Piekniewski 看來,這些發展困境都表明著AI 發展的寒冬即將來臨,就像股市崩盤一樣,雖然不太可能準確說出發生的時間點,但你從某些明顯的跡象中,幾乎可以肯定它將會在某個時刻出現,然而因為外界的呼聲太過強烈,以至于人們很容易就忽視掉這些征兆。
可想而知,一些研究人員應該會對「凜冬將至」的說法感到憤怒,但Piekniewski 指出,過去已經有許多知名研究者都警告過,群眾對于AI 關注的熱潮已有些過頭,就連Geoffrey Hinton 也曾在受訪時承認,反向傳播法(back-propagation)似乎已走入死胡同,相關研究可能得從頭開始展開。
然而,由于AI 炒作的風聲實在過于強大,以至于這位對神經網路有著巨大貢獻、經常被外界稱作深度學習之父者的聲音并沒有太多人真的聽見。
「究竟冬天會有多『嚴寒』?我不知道。接下來會發生什么?我不知道。但是我相當確定凜冬即將來臨,或許事情只會比我預想的更早發生。