谷歌公司已為其Cloud AI Platform發布了多個更新,旨在使其“更快、更靈活”地運行機器學習工作負載。
Cloud AI Platform是谷歌公司的一種機器學習平臺即服務(ML PaaS),專為人工智能開發人員、工程師和數據科學家而設計。該平臺是端到端的平臺,并為從準備數據、培訓到構建和部署機器學習模型的整個開發周期提供支持。
該平臺最值得一提的新增功能是對Nvidia GPU的支持。正如谷歌公司解釋的那樣,“機器學習模型非常復雜,以至于它們只能在具有許多CPU或NVIDIA GPU等加速器上以可接受的延遲運行。對于處理非結構化數據(例如圖像、視頻或文本)的模型尤其如此。”
在以往,Cloud AI Platform只支持一個vCPU和2GB 內存。現在,用戶可以為人工智能平臺預測添加GPU,例如推理優化的低延遲NVIDIA T4。而其基本層增加了對最多四個vCPU的支持。
總部位于華盛頓的國際自然保護組織正在使用人工智能平臺預測,該組織的任務是“以負責任和可持續的方式保護自然、全球生物多樣性、人類的福祉”,并正在開展一項名為“野生動植物洞察”的合作項目。
國際自然保護組織保護技術高級總監Eric H. Fegraus解釋說,“野生動物洞察將把數以百萬計的野生動物圖像轉化為關鍵數據點,可以幫助我們更好地了解、保護、拯救世界各地的野生動物種群。谷歌云的人工智能平臺幫助我們可靠地服務于機器學習模型,并輕松地將它們的預測與我們的應用程序集成。在快速響應和可擴展的GPU硬件環境中,快速預測對我們的用戶體驗至關重要。”
對運行自定義容器進行訓練模型的支持也已普遍可用。用戶可以為自己的Docker映像提供預安裝在人工智能平臺上運行的機器學習框架。開發人員可以在將容器映像部署到云平臺之前對其進行本地測試。
旨在使用該平臺進行推理的客戶(托管經過訓練的模型可以做出預測)現在可以這樣做。可以使用Google Cloud AI平臺托管機器學習模型,并且可以使用人工智能平臺預測推斷目標值以獲取新數據。
現在人工智能平臺預測是基于Kubernetes構建的,這使谷歌公司能夠構建具有機器學習所需的所有靈活性的可靠且快速的服務系統。
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。