繼Google CEO Sundar Pichai早些在Google I/O大會上公布了TPU(Tensor Processing Unit, 張量處理單元)的研發之后,最近Google的硬件工程師Norm Jouppi又公布了TPU的若干細節。
TPU為了更好的用TensorFlow(TF)來實現機器學習功能而特意優化了ASIC,降低了計算精度以減少完成每個操作所需要的晶體管數量。目前為止Google還沒有提供性能測試數據,但Google聲稱這些優化有助于提高芯片每秒鐘處理的操作數量。
Google表示這個項目幾年前就已經開始了,而且它的技術領先了當前業界水平整整七年,但Google并沒有向社區提供可供分析的數據。Jouppi說只需22天就可以完成這種芯片從原型測試到數據中心部署的完整流程。這也是Google將研究成果應用于實際生活的又一個例子。
大家關心的問題集中于TPU與大家熟悉的東西之間有何異同,比如Nvidia的Telsla P100等芯片,或者PaaS提供者Nervana提供的機器學習服務等。Google公布的信息中表示TPU也許可以與Nvidia四月份發布的Tesla P100芯片相類比。
最近有消息說Google在自行研發和生產芯片,并分析了對Intel等業界龍頭公司的潛在影響。Jouppi提到Google實際上想要引領的是機器學習領域,并且要讓客戶享受到這些變革帶來的好處,但他這一次沒有給出更細節的計劃及內容。
在原貼的評論中有人提到TPU有可能會取代Nvidia的P100和TX1,以及IBM的TrueNorth,但沒有給出詳細的評測數據和對比。Google已經將TPU用于許多內部項目,如機器學習系統RankBrain、Google街景、以及因為在二月份的圍棋比賽中擊敗韓國大師李世石而聲名鵲起的AlphaGo等。但Google沒有給出將TPU應用于外部項目的計劃。
查看英文原文:Google Details New TensorFlow Optimized ASIC