GPU 運行神經網絡的方法近年來已經為人工智能領域帶來了驚人的進步,但是直到十年前,研究人員才意識到為視頻游戲設計的GPU(圖形處理單元)可以用作硬件加速器來運行比以前更大的神經網絡。這要歸功于GPU芯片能夠執行大量的并行計算,而不必像傳統的CPU一樣順序地完成這些計算。這對于同時計算組成當今深度學習網絡的數百個神經元的權重特別有用。而現在深度學習網絡則正是由大量神經元構成的。
雖然GPU的加入使得該領域取得了巨大的進展,但這些芯片仍將處理和內存分開,這意味著在這兩者之間傳輸數據需要花費大量時間和精力。這促使人們對新的存儲技術進行研究,這些技術既可以在相同的位置存儲和處理這些重量數據,也可以提高速度和能源效率。
IBM Research的博士后研究員Stefano Ambrogio 在接受采訪時表示:“我們可以對比GPU更快的系統進行培訓,但是如果培訓操作中的準確性不夠用,那就沒用。到目前為止還沒有證據表明使用這些新型設備和使用 GPU 一樣精確。”
那么這種專用芯片能做什么?Ambrogio表示有兩個主要應用:在個人設備中實施AI可以防止用戶通過云共享數據,提高隱私性,將AI引入個人設備并使數據中心效率更高。后者是大型科技公司的主要關注點,這些公司的服務器運營成本一直居高不下。但Ambrogio表示更令人興奮的前景是AI的個性化。