2017年9月21日,谷歌GCE(Google Compute Engine)發布推出更快的GPU。首先,Google云平臺(GCP)隨著NVIDIA P100 GPU在測試版上的推出而獲得另一個性能提升。其次,NVIDIA K80 GPU現在在GCE上可用。第三,宣布在K80和P100 GPU上引入持續使用的折扣。
云GPU可以加速企業的工作負載,包括機器學習訓練和推理,如地球物理數據處理,仿真,地震分析,分子建模,基因組學和更多的高性能計算用例。
NVIDIA的特斯拉P100是目前GPU領域的最先進技術。基于Pascal GPU架構,你可以通過減少實例來增加吞吐量,同時節省資金。與K801相比,P100 GPU可以將工作負載加快10倍。
與傳統解決方案相比,云GPU提供了更好的靈活性,性能和成本節約的組合:
靈活性:Google的自定義虛擬機和增量云GPU提供極大的靈活性。自定義CPU,內存,磁盤和GPU配置,以最好地滿足需求。
快速性能:云端GPU通過直通模式提供裸機性能。每個VM最多可以連接4個P100或8個K80(我們提供最多4個K80板,每個板上有2個GPU)。對于那些尋求更高磁盤性能的用戶,可選擇將最多3TB的本地SSD附加到任何GPU虛擬機。
低成本:使用Cloud GPU,可以獲得與GCP其余資源相同的每分鐘計費和持續使用折扣。只為你需要的資源付費!
云集成:云GPU可用于堆棧的所有級別。對于基礎設施,計算引擎和容器引擎(僅在Alpha群集上支持)允許使用VM或容器運行GPU工作負載。對于機器學習,云機器學習可以選擇配置為利用GPU,以減少使用TensorFlow大規模培訓你的模型所需的時間。
同時,現在可以在全球四個地區部署NVIDIA Tesla P100和K80 GPU。我們所有的GPU都可以利用持續使用折扣,當你使用它們來運行持續的工作負載時,可以自動降低虛擬機的價格(高達30%)。不需要鎖定或預付最低費用承諾來利用這些折扣。
▲
加快機器學習工作量
自推出GPU以來,我們已經看到用戶可以從額外的計算中獲益,從而加速從基因組學和計算金融到訓練和機器學習模型推理等工作。我們的客戶之一,Shazam是GCP早期采用GPU來為音樂識別服務提供支持。
Shazam網站可靠性工程負責人Ben Belchak表示,“對于某些任務,NVIDIA GPU是傳統CPU的成本效益和高性能替代品。他們與Shazam的核心音樂識別工作非常相符,其中我們將用戶錄制的音頻片段與我們4000多萬首歌曲的目錄相匹配。我們通過拍攝每首歌曲的音頻簽名,將其編譯成自定義數據庫格式并將其加載到GPU內存中。每當用戶Shazams一首歌曲,我們的算法使用GPU搜索該數據庫,直到找到一個匹配。每天成功超過2000萬次。”
今天GCP又邁出了一步,成為任何硬件加速工作負載的最佳選擇。隨著NVIDIA P100 GPU的增加,谷歌的主要重點是幫助你將新的用例帶入生活。