而英特爾(Intel)、超微(AMD)和該領域的所有新創公司能否追上NVIDIA,值得深入探討。
據富比士(Forbes)報導,市場研調機構Moor Insights & Strateg分析師Karl Freund日前發表研究報告指出,NVIDIA在AI方面的驚人成長引發很多關注,并帶來眾多潛在對手,其中許多公司聲稱其研發中的芯片比NVIDIA的快10倍,而且功耗更低。而除了超微的GPU之外,所有公司都認為專為處理神經網絡設計的芯片是條可行路線。
英特爾 英特爾(Intel)于2016年收購Nervana來建構其加速器產品組合。原始Nervana Engine應該在2017年發布,迄今仍無消息。在NVIDIA發表效能比Pascal高6倍的Volta TensorCores震驚各界后,Nervana可能決定調整其最初設計。Freund認為,首批量產的Nervana芯片可能會在2018年后期問世。
上面的討論是關于訓練深度神經網絡(DNN),這是NVIDIA在AI中取得很大成功的地方。然而,英特爾表示,通過將良好的軟件設計與Xeon數據中心處理器配對,可在推論工作中實現出色的性能。該公司聲稱享有逾80%的推論處理市場市占。 Google TPU和其他內部ASIC Google有兩種可用于AI的ASIC:一種用于推論,另一種用于培訓。Google將TPU做為加速器推向市場。但實際上,它由4個相同的ASIC構成,每個提供約45TOPS。相較之下,NVIDIA Volta每個芯片提供高達125TOPS。隨著時間推移,Google可能會將其大部分內部GPU工作轉移到TPU。
超微 盡管超微在準備其軟件堆疊好與NVIDIA爭奪機器學習工作負載方面做得很好,但其當前Vega芯片在峰值效能方面比NVIDIA的Volta落后了一代。
新創公司 全球目前有10幾家新創公司計劃競爭機器學習工作量,其中有些已準備好推出芯片。大陸的寒武紀看起來資金充足,并獲得大陸政府支持。
寒武紀專注于處理神經網絡,而不是建構神經網絡。 硅谷公司Wave Computing已推出能建構培訓模型的芯片。Wave采用名為DataFlow Architecture的新穎設計,據稱能消除傳統加速器的瓶頸。Wave的數據流處理器不必使用CPU就能直接訓練和處理神經網絡。
與Google TPU不同,Wave支持微軟CNTK、亞馬遜(Amazon) MXNet和Tensorflow軟件進行深度學習。 其他知名公司如Cerebras、GraphCore和Groq仍處于隱形模式,但已籌集大量資金來打造定制AI加速器,但應該要到2019年才會推出產品。
Freund認為,NVIDIA的最大威脅可能是Google TPU。Google可能會繼續購買和使用許多GPU來處理TPU不太適合的工作負載,例如用于語言處理的遞歸神經網絡。而Wave對不想使用公共云進行AI開發和部署,并且不希望自行設置自GPU基礎設施的企業來說是不錯的選擇。
最后,英特爾若能借Nervana進入市場,且愿投資全力支持它,那么Nervana可能在2019年構成威脅。但Nervana需要至少3年的時間和堅實的路線圖來發展1個可行的生態系統。 需要考慮的1個因素是,隨著NVIDIA 7納米制造技術的發展,NVIDIA將能為AI功能添加重要的芯片面積。因此,專注于AI的芯片區域百分比可能會增加,以至于這部分實際上成為也能顯示圖形的ASIC。
Freund不認為NVIDIA是1家GPU公司,而是1家對成長抱有無限渴望的平臺公司。目前沒有其他公司擁有NVIDIA在AI硬件和軟件專業知識的上擁有NVIDIA的深度和廣度。NVIDIA若預見來自超微、英特爾或ASIC的威脅,大可設計出更好的AI芯片。 NVIDIA已通過深度學習加速器(DLA)做到這一點。GPU若受到威脅,NVIDIA能夠也將轉向下一步。
與此同時,它在AI培訓芯片方面有明顯的成長和市場領先地位。在推論處理方面,NVIDIA專注于數據中心工作負載及用于自駕車等應用的視覺引導系統。汽車市場在未來幾年雖然規模仍然有限,但Freund毫不懷疑它最終會帶來顯著成長。