機器學習為許多深受歡迎的Google應用程序增添了不少魅力,當前有超過百支谷歌團隊在使用這項技術,包括街景、收件箱智能回復、語音搜索等。在I/O 2016大會的主題演講期間,Google向大家介紹了其在人工智能和機器學習領域的最新進展,其中一個有趣的細節,就是所謂的TPU(張量處理單元)定制芯片。為了幫助大家更好地理解,Google著名硬件工程師Norm Jouppi特地在云平臺博客上發表了一篇深入介紹TPU的文章。
一塊TPU的板子,剛好可以插入數據中心機架的一個驅動器位。
優秀的軟件,自然少不了優秀硬件的加持。幾年前,Google就已經悄悄地開展了一個項目——自己動手,為機器學習應用程序提供定制加速。
這項研究的成果,就是本文要著重介紹的“張量處理單元”(Tensor Processing Unit),簡稱TPU。這是一款為機器學習而定制的ASIC、并且經過了TensorFlow的調教。
TPU已經在Google數據中心運行了一年多,實踐表明它可以為機器學習帶來相當出色的每瓦特性能表現。TPU是專為機器學習應用而定制的,它的寬容度更高,可以降低計算的精度(所需的晶體管操作也更少)。
正因如此,我們每秒都可以在芯片中擠出更多的操作時間,使用更復雜和強大的機器學習模型、將之更快的部署,用戶也會更加迅速地獲得更智能的結果。
TPU在AlphaGo與李世石的“世紀之戰”中得到了實際應用。
TPU是Google從研究快速走向實際應用的一個積極例子,團隊只花了22天的時間,就讓它在數據中心運行了起來。
TPU早已為許多Google服務提供支撐,包括RankBrain(用于改進搜索結果的相關性)和街景(改進地圖導航的精度和品質)。
在與李世石的人機圍棋對戰中,AlphaGo的背后也有著TPU的身影。TPU讓AlphaGo可以更快的思考,在移動之前更加高瞻遠矚。
Google的目標是在機器學習領域做到業內領先,同時將創新提供給盡可能多的客戶。
在基礎設施對戰中打造的TPU,使得Google能夠向開發者們帶去更大的軟件能量,比如在先進的加速技術加持下的TensorFlow和云機器學習。
機器學習已經改變了開發者們為消費者打造智能應用程序的方法,我們熱切期待著它能夠走入我們的日常生活中。