谷歌宣布其人工智能平臺的一個關鍵組成部分——人工智能預測服務已正式全面啟動。該服務支持托管在主流的機器學習框架,包括TensorFlow、XGBoost和Scikit-Learn中。
AI Prediction服務充當機器學習管道的最后階段。它在云中托管經過訓練的機器學習模型,以推斷新數據的目標值。部署在AI預測服務中的經過訓練的模型作為REST端點公開,可以從任何支持HTTP的標準客戶端調用這些端點。
AI平臺預測服務基于Google Kubernetes Engine(GKE)后端,旨在通過新的硬件選項(如Google計算引擎機器類型和NVIDIA GPU)提高可靠性和靈活性。
雖然該服務基于googlekubernetes引擎,但AI預測服務隱藏了集群的供應、管理和擴展的復雜性。數據科學家和工程師可以專注于業務問題,而不是管理基礎設施。
在一般可用性下,AI預測服務支持高內存和高cpu機器類型上的XGBoost和Scikit學習模型。在后臺,服務根據流量和請求自動擴展和收縮基礎設施。
該服務與Google云控制臺和Stackdriver緊密集成,以跟蹤和可視化資源指標。與模型的GPU、CPU、RAM和網絡利用率相關的性能指標可以深入了解性能特征。
客戶可以選擇通過AI Prediction服務在特定區域部署機器學習模型。Google在三個區域(us-central1、euro-west4和asia-east1)中引入了新的端點,并通過區域隔離來提高可靠性。部署在區域端點上的模型位于指定區域內,為客戶提供數據局部性和所有權。
通過增加對VPC控件的支持,客戶可以定義安全范圍并部署僅可訪問該范圍內或另一個橋接范圍內的資源和服務的在線預測模型。由于預測服務端點是VPC專用的,因此數據保留在專用網絡內,而不必遍歷公共互聯網。
通過AI Prediction服務部署和公開的模型支持在線和批處理推理。在線預測經過優化,可最大程度地減少服務預測的延遲,而批處理預測,則可以優化處理作業中的大量實例。與立即發送結果的在線預測不同,批處理預測將推理輸出寫入存儲在Google Cloud Storage存儲桶中的文件中。
谷歌一直在大力投資人工智能平臺即服務(PaaS)產品。它整合和擴充了包括cloudml引擎在內的各種服務。通過與GKE和Kubeflow的緊密集成,該服務已經發展成為一個支持數據準備、轉換、培訓、模型管理、部署和推理的端到端平臺。
責任編輯:tzh
-
gpu
+關注
關注
28文章
4701瀏覽量
128708 -
AI
+關注
關注
87文章
30149瀏覽量
268422 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237584 -
機器學習
+關注
關注
66文章
8378瀏覽量
132411
發布評論請先 登錄
相關推薦
評論