在去年4月的全球開發者大會上,扎克伯格暢想了未來十年Facebook的人工智能發展藍圖:成為整個社交網站的核心動力。接近一年過去,可以看到Facebook至少在硬件上是沒有停下腳步。
3月9日,Facebook工程師Kevin Lee宣布,為了進一步加速神經網絡的訓練,將推出新一代GPU服務器Big Basin。新一代的服務器其實是2015年Facebook推出的Big Sur服務器的升級版,并且同樣都會在Open Computer Project平臺上進行開源。
無論人工智能還是機器學習,它們出現在人們面前的形象常常是算法和代碼,而服務器則是背后“看得見摸得著”的那一部分。Big Sur一直是Facebook發展人工智能的利器,其強大的計算能力為Facebook語言技術和圖像技術提供支持。這次的硬件升級將存儲量從12G提升到16G,模型訓練量能夠再提升30%,同時在進行神經網絡訓練時,其訓練速度能比Big Sur高出一倍。
與NVIDIA的DGX-1架構非常相似,Big Basin由8個NVIDIA Tesla P100 GPU (搭載NVLink技術的 Tesla P100加速器)加速器組成,這些GPU們由 NVIDIA NVLink連接在一起組成了一個盒子。這個服務器也被公司成為JBOG ( Just a Bunch of GPUs )——一堆GPU,這一大堆GPU的能量就意味著足夠為機器學習提供支持。
不像無人車和機器人,Facebook本身的社交平臺屬性弱化了人工智能技術的外露特征,讓很多用戶感受不到人工智能的沖擊力,但其實我們日常使用的很多Facebook 服務無一不是人工智能在背后發生作用:語音識別、語音文字轉換、圖像的分類和識別,Big Basin 和它的前身 Big Sur 就是實現這些服務的重要支撐。
你每天能多做3套模擬題的結果可能是期末多考30分,機器學習每天多訓練30%的模型,結果可能就是更精準地圖片識別、更快速的語音識別、更合理的資訊推薦,每一個Facebook的用戶作為閱卷老師,最后都應該能體會到這樣的變化。
人工智能是很多科技公司的急于搶占的陣地,對 Facebook 而言則是“阿喀琉斯之踵”。一是因為 Facebook 本身入局較晚,二是缺乏殺手級應用。
在人工智能浪潮中,科技公司要站穩腳跟就需要為自己找到一塊壁壘。Google被認為是走在人工智能行業的前列,從 TenserFlow 開源平臺到旗下的 DeepMind 人工智能公司,從成績斐然的圍棋算法到離商業化最近的云服務和智能家居,Google 戰略布局思路可以說是很清晰了。而其他的科技公司,即便觸手沒有伸到四面八方,但也有自己的戰略根據地,微軟有 Cortana Platform、IBM 有 Watson。
相對而言 Facebook 就略顯薄弱,雖然在去年推出 Messenger 聊天機器人,準備打造大型聊天機器人生態系統,但是前段時間來自外媒 The Information 的調查報告顯示,Messenger 聊天機器人在沒有人為干預的情況下,能準確處理用戶請求的準確率還不到30%。這70%的錯誤率揭開 Facebook 在人工智能研究領域研究處于弱勢的傷疤,Facebook 也決定削減一些開支,讓 Messenger 從低質量聊天中轉型,只做一些特殊問題的處理。
Facebook 削減開支的是打人工智能的退堂鼓了?從今天新硬件產品的升級看來并非如此,而是把注意力轉移到提升基礎設施上,畢竟身體是革命的本錢。