軟件提供商與 NVIDIA 一起幫助客戶建立更有效的 AI管線
開發 AI 應用并不容易,而將它們應用于業務之上,這個難度系數則變得更高。
根據 IDC 最近的一項調查,在已經開始采用 AI 的企業中,只有不到三分之一的企業真正將 AI 投入生產。
企業往往要等到發布一個應用之前,才能完全意識到運行 AI 的復雜性。這些臨時發現的問題似乎無法很快地得到解決,因此部署工作往往被擱置和遺忘。
為了幫助企業順利完成 AI 部署,100 多家機器學習運維(MLOps)軟件提供商正在與 NVIDIA 開展合作。這些 MLOps 領域的先鋒企業提供豐富的解決方案,幫助企業優化他們的 AI 流程,包括現有運行的以及重建的管線。
許多 NVIDIA MLOps 和 AI 平臺生態合作伙伴以及 DGX-Ready Software 合作伙伴,包括 Canonical、ClearML、Dataiku、Domino Data Lab、Run:ai 和 Weights & Biases 等在內的公司,正在構建與 NVIDIA 加速的基礎設施和軟件相集成的解決方案,以滿足企業的 AI 運行需求。
包括亞馬遜云、谷歌云、微軟 Azure、甲骨文云等 NVIDIA 云服務提供商合作伙伴,以及阿里云等其他全球合作伙伴,也在提供簡化 AI 部署的 MLOps 解決方案。
NVIDIA 領先的 MLOps 軟件合作伙伴均通過 NVIDIA AI Enterprise 軟件套件的驗證和認證,該套件提供了一個用于創建和加速生產級 AI 的端到端平臺。結合 NVIDIA AI Enterprise, NVIDIA MLOps 合作伙伴所提供的工具可以幫助企業成功開發和部署 AI。
以下 NVIDIA MLOps 和 AI 平臺合作伙伴可以幫助企業啟動和運行 AI:
-
Canonical:在加速大規模 AI 部署的同時,為 AI 的開發開放源碼。Canonical 宣布,部署在 NVIDIA DGX 系統單節點和多節點上的 Charmed Kubeflow 現已獲準加入 DGX-Ready Software 計劃。Charmed Kubeflow 旨在實現機器學習工作流程的自動化,它創建了一個可以將模型轉移到生產中的可靠應用層。
-
ClearML:提供一個用于持續機器學習的統一開源平臺,覆蓋從實驗管理、編排到性能提升以及 機器學習 的生產部署,受到全球 1,300 家企業團隊的信任。通過 ClearML,企業可以在個性化的運算組織構造上編排和安排工作。無論是在本地還是在云端,企業都可以實現基礎設施使用情況的完全可視化,同時減少計算、硬件和資源消耗,優化成本和性能。現在,ClearML 的 MLOps 平臺已獲準運行 NVIDIA AI Enterprise,在整個工作流程中的效率將變得更高,能夠更好地優化 GPU 性能。
-
Dataiku:提供一個使數據和領域專家能夠在一起將 AI 融入到日常運營中的 Everyday AI 平臺。Dataiku 現已獲準加入 NVIDIA DGX-Ready Software 計劃,因此企業可以放心地將 Dataiku MLOps 平臺與 NVIDIA DGX AI 超級計算機一起使用。
-
Domino Data Lab:所提供的一站式管理平臺使全球最先進的企業能夠在所有地區運行基于任何云或本地計算集群中的數據科學和機器學習工作負載。Domino Cloud 是一項全新的全托管式 MLOps 平臺即服務,現在可用于快速、簡單的大規模數據科學研究。Domino Data Lab 的平臺去年獲準在 NVIDIA AI Enterprise 上運行,它可以降低部署風險,并與 NVIDIA AI 實現可靠、高性能的集成。
-
Run:ai:通過其 AI 計算平臺 Atlas,在企業的 MLOps 和 AI 基礎設施堆棧中發揮基礎層作用。該平臺的自動化資源管理功能使企業機構能夠適當整合在 Run:ai Atlas 上運行的不同 MLOps 平臺與工具的資源。Run:ai 已獲準提供 NVIDIA AI Enterprise,而且還完全集成了 NVIDIA Triton 推理服務器,最大程度地提高了 GPU 在 AI 賦能的環境中的利用率和價值。
-
Weights & Biases(W&B):幫助機器學習團隊更快地構建更好的模型。只需幾行代碼,從業者就可以立即調試、比較和復制他們的模型,同時與他們的團隊成員開展合作。W&B 得到了全球領先企業和研究機構 50 多萬名機器學習從業人員的信任。Weights & Biases 已獲準提供 NVIDIA AI Enterprise,著眼于加速包括計算機視覺、自然語言處理和生成式 AI 的深度學習工作負載。
NVIDIA 云服務提供商合作伙伴已將 MLOps 集成其平臺,為數據處理、整理、訓練和推理任務提供 NVIDIA 加速計算與軟件:
-
亞馬遜云:Amazon SageMaker for MLOps 使用 NVIDIA 加速計算幫助開發人員在整個機器學習生命周期中實現流程的自動化和標準化。通過訓練、測試、排查、部署和治理機器學習模型提高生產力。
-
谷歌云:全托管式機器學習平臺 Vertex AI 通過匯集大量特定功能,幫助加快機器學習的部署速度。通過 NVIDIA GPU 為各種 AI 工作負載提供優化,Vertex AI 的端到端 MLOps 能力使機器學習的大規模訓練、編排、部署和管理變得更加容易。Vertex AI 還支持各種領先的邊緣解決方案,比如最大程度地提高性能并簡化模型大規模部署的 NVIDIA Merlin 等。谷歌云和 NVIDIA 合作,將 Triton 推理服務器作為谷歌云的全托管式模型服務平臺——Vertex AI Prediction 的后臺。
-
Azure:通過 NVIDIA 加速的 Azure Machine Learning 機器學習云平臺 統一了機器學習模型的開發和運維(DevOps),還將 DevOps 原則與實踐,比如持續集成、交付和部署等,應用于機器學習的流程,以加速將 Azure 機器學習模型部署到生產環境中的實驗、開發和生產部署。Azure Machine Learning 通過內置的負責任 AI 工具提供質量保證,幫助機器學習專業人士開發公平、可解釋和負責任的模型。
-
Oracle Cloud:Oracle Cloud Infrastructure(OCI)AI Services 是一個提供預制機器學習模型的服務集,它能夠幫助開發人員方便地在其應用和業務運營中使用NVIDIA 加速的 AI。企業內部的團隊可以在各項服務中重復使用這些模型、數據集和數據標簽。OCI AI Services 使開發人員在不減慢應用開發的同時,輕松將機器學習植入應用成為可能。
-
阿里云:阿里云機器學習平臺 PAI 提供一站式的機器學習服務,提供高性能的解決方案并減少對用戶的技術技能的要求。在 NVIDIA 技術的加速下,阿里云機器學習平臺 PAI 使企業能夠快速建立和部署機器學習實驗以達成業務目標。
?
掃描海報二維碼,或點擊“閱讀原文”,即可觀看 NVIDIA 創始人兼首席執行官黃仁勛 GTC23 主題演講重播!
原文標題:GTC23 | 眾人拾柴火焰高:100 多家 NVIDIA MLOps 和 AI 平臺合作伙伴幫助企業將 AI 投入生產
文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
-
英偉達
+關注
關注
22文章
3747瀏覽量
90834
原文標題:GTC23 | 眾人拾柴火焰高:100 多家 NVIDIA MLOps 和 AI 平臺合作伙伴幫助企業將 AI 投入生產
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論