用GPU取代CPU來運行神經網絡,已經使AI發展迅速,但GPU在運行時,仍要將處理和存儲分開,導致數據的傳遞需要耗費大量的時間和能量。
未來的人工智能,需要大規模可擴展的計算單元,無論是在云端還是在邊緣,DNN都會變得更大、更快。不過,在此之前,人們還不清楚DNN是不是真的能夠通過模擬技術進行高精度訓練。
由于當前NVM存儲器的固有缺陷,以前相關實驗都沒有在DNN圖像分類任務上得到很好的精度,這一次,IBM研究人員收了神經科學的啟發,使用了短期計算和長期記憶兩種類型的“突觸”。隨后,基于NVM的芯片在訓練全連接層方面展現出了極強的潛力,在計算能效上超過了當前GPU兩個數量級。
據稱,這類芯片若加以應用,便可將AI引入手機、自動駕駛汽車等個人設備,還可提高數據中心的運行效率,降低科技公司的服務器運營成本。