IBM Research副總裁Jeff Welser表示,過去一年來,業界已經在AI方面達到幾項發展里程碑了,預計在2019年將持續關注于三大關鍵領域。他說,對于企業而言,將以AI驅動的認知解決方案帶入可使其輕松導入的平臺,不只是一項策略性業務需求,同時也增加了AI的理解,以及解決偏見和信任等問題。
在推動AI的進展方面,Welser表示業界已在幾個方面取得進展,包括理解語音和分析影像。例如,IBM的Project Debater計劃已能將目前的AI語音理解能力擴展到回答簡單問題的任務之外,讓機器更能理解人們可能何時提出爭論,并使其超越僅限于“搜尋類固醇”(search on steroids)這一類的簡單任務。例如,提出一個沒有固定答案的問題——政府是否應該提高對于遠距醫療的投資。
Welser說,如同讓AI更能理解所說的內容一樣至關重要的是,它在更快、更準確地辨識所看到的內容方面也取得了長足進展。IBM的作法并非要求提供數千或甚至數百萬幅標記影像來訓練視覺辨識模型,而是證實AI現在甚至可以只用一個例子作為辨識新對象的指導原則,這讓AI得以擴展。
Welser說,讓AI學習變得可擴展的另一種方式是讓AI代理之間相互學習。IBM研究人員開發了一種架構和算法,讓AI代理之間得以交換知識,從而比以前的方法學得更快。此外,他說,他們還可以學會調整現有方法失敗之處。
“如果你面對更復雜的任務,其實并不必一定要訓練一個大型系統,”Welser說,“但你可以采用個別系統并將它們結合起來共同完成任務。”
降低深度學習模型的復雜度
在降低深度學習模型所需的運算資源方面也正取得進展。2015年,IBM介紹如何使用16位精度訓練深度學習模型,而今,該公司強調 8位精度也不至于折衷各種主要AI數據集類別(包括影像、語音和文本)的模型準確度。AI的調整也可以透過新的神經網絡架構搜尋技術來實現,從而減少設計網絡所需的繁重工作。
這些進展都建立在AI必須值得信賴的事實基礎上,Welser表示,明年將會有很多工作都關注在這一點。就像其他技術一樣,AI可能會受到惡意控制,因此它必須能夠預測對抗性攻擊。
現在,AI可能很容易受到所謂“對抗示例”(adversarial examples)的影響,黑客可能會在你不知不覺時改變影像,欺騙深度學習模型,而將其分類為攻擊者所需的各種類別。IBM Research的解決辦法是采用一種不依賴于特定攻擊(attack-agnostic)的措施,以評估神經網絡的穩健性,并指導系統如何檢測和防御攻擊。
另一個難題是神經網絡往往是黑盒子——關于他們如何做出決定并非顯而易見的,Welser說。缺乏透明度是對于AI信任的一項障礙。同時,消除偏見也很重要,因為AI越來越依賴于決策,他說,但這相當具有挑戰性。
Wesler說:“截至目前為止,我們已經看到大多數人都非常興奮地展開AI系統設計,使其能夠實現某些任務。然后他們會試著搞清楚所設計的AI系統是否存有偏見或者是否安全穩健,或者他們所做的決定是否有問題。”