我們是否已經準備好為企業數據中心引進基于憶阻器的人工智能基礎設施了呢?
我們做事情總是追求更快更智能,這是人的本性。在數據中心里,我們通過機器學習算法將巨大和快速的數據流分層,從而建立獨特的業務競爭優勢(或更大的社會效益)。
雖然有著令人矚目的處理能力、性能和容量,今天的數字計算和存儲仍然無法與我們的大腦相比,已遠超數字架構的6、7或者8個數量級。如果我們想在生物規模和速度方面進行計算,我們必須利用能夠遠遠超越這些嚴格數字的新形式硬件。
許多以機器學習為基礎的應用程序以調查數據的內在模式和行為為基礎,然后通過這些情報歸類哪些是我們所知道的,并預測接下來會發生的事情,同時識別異常。這類似于我們自己的神經元和突觸,從傳入的信號中進行學習,將學到的東西保存下來,然后“轉發”出去用于做出更明智的決定(或采取行動)。在過去的30年里,AI從業人員已經建立了實用的神經網絡和其他類型的機器學習算法用于各種應用程序,但是如今被有限的數字規模(成指數增長的互聯網絡規模只是其中一個方面)和速度所束縛。
今天的數字計算基礎設施以切換數字位為基礎,與摩爾定律同步還需克服一些重大障礙。即使有一些量級上的改善,也脫離不了傳統數字設計范式,功耗、規模和速度等方面存在固有的限制。不管我們是否將人工智能進化成人形機器人,或者將更大規模的機器學習投入到更大型的數據集來實現更有針對性的廣告預算,然而,傳統計算基礎設施根本就沒有足夠的原始動力可以達到生物的規模和密度。
最終,動力才是真正的缺陷。顯而易見,組件之間的“信息傳遞”或信號(數據)來回傳播是一項重要消耗。在數字設計的基礎級別,即使是最小的數據處理任務,CPU之間也會產生大量的IO及其他操作。即使我們增加密度,制作更小的芯片或在CPU附件添加閃存,數字架構之間的比特移動仍將花費很大的精力和時間。在我們的大腦中,內存、存儲和加工都是緊密融合的。
與數字系統不同的是,早上我們不需要花百萬瓦特的電力起床,因為我們的大腦以低功率的模擬架構運行。而模擬電路,如果就眼下的問題進行自定義構建,可以直接以光的速度解決難題,而不需要大量的指令周期。根據多次的數值輸出,它可以計算到任意精度。進一步而言,如果這種電路實現持久性存儲,對于遠程設備上的存儲數字位就不會出現任何令人吃驚的IO等待。
向憶阻器問好
當然硅設備基本上是模擬的,但我們已經在上面建立了復雜的數字邏輯門和位存儲。但如果我們可以“回到未來”利用今天的硅片密度為模擬計算電路來設計硅設備呢?新的突破利用了新興的憶阻器設備的模擬屬性。
憶阻器是一種可以通過輸入的電信號改變其內部電阻的裝置,持久性抵制可以測量和用于非易失性內存。憶阻器是一個類似DRAM的快速硅設備——至少比基于NAND的NVRAM快10倍,所以它可以作為主存儲器。比如惠普一直在研究一種新的憶阻器技術作為持續的數字存儲器,但目前尚未完全推向市場。如果實現的話,我們可能將迎來全新一代整合了存儲和內存的數字計算架構。
現在我們看到的是,創業公司Knowm使用了開創性的新形式計算,利用憶阻器技術不僅在快速內存中存儲數據,而且從內部預測危急的計算功能,否則需要將存儲數據卸載到CPU,再經過加工并寫回。Knowm稱其利用了小型憶阻器電路的模擬特性——一個具有自適應學習能力的“突觸”。它能夠直接對傳輸進來的信號模式進行學習,同時持久保存。
從理論上講,基于這個基本功能單元,幾乎任何類型的機器學習算法可以獲得極大的加速。雖然Knowm的發展還處于早期階段,但已經提供了一個完整的技術堆棧——離散工作的突觸芯片、可伸縮的模擬器、低級別的APIs 和更高級的機器學習庫,再加上一個服務體系,該體系可以幫助大量的突觸分層,直接映射到現有的CMOS設計。
對于AI和Terminator愛好者,Tanjea Group的團隊認為破壞的機會遠遠大于機器學習加速。一個被Knowm稱為Neural Processing Unit的新型硬件能夠智能地利用模擬硬件功能實現極速、低功耗、高密度和存儲融合計算,這是整個計算行業一個真正的重大變化與轉折點。不管是誰首先利用這種類型的計算解決方案,都將可能導致大規模的轉變,不僅僅是機器學習,還有所有計算的實現方法。