NVIDIA 和谷歌云宣布開展一項新的合作,以幫助全球初創企業加速創建生成式 AI 應用和服務。
雙方于今日在拉斯維加斯舉行的 Google Cloud Next '24 大會上宣布這一消息,將把針對初創企業的NVIDIA 初創加速計劃與 Google for Startups Cloud 計劃相結合。此舉將擴大云積分、產品上市支持和技術專業知識的受眾面,幫助初創企業更快地為客戶創造價值。
NVIDIA 初創加速計劃是一項為 18,000 多家初創企業提供助力的全球性計劃,符合資格的會員將能夠通過加速途徑使用谷歌云基礎設施,并獲得谷歌云積分,將為專注于 AI 的初創企業提供高達 35 萬美元的積分。
Google for Startups Cloud 計劃成員可加入 NVIDIA 初創加速計劃并獲得技術專業知識、NVIDIA 深度學習培訓中心(DLI)課程學分、NVIDIA 硬件和軟件等。符合條件的 Google for Startups Cloud 計劃成員還可以參加 NVIDIA Inception Capital Connect,該平臺讓初創企業能夠接觸到對該領域感興趣的風投公司。
參加這兩項計劃的高增長新興軟件制造商還可以快速入駐谷歌云 Marketplace,獲得聯合營銷和產品加速支持。
此次合作是兩家公司發布一系列公告的最新成果,旨在幫助各種規模的企業減少生成式 AI 應用開發成本和障礙。其中,AI 投資所產生的高額成本對初創企業有一定的制約。
需要一個全棧式 AI 平臺
今年 2 月,谷歌 DeepMind 推出了先進的開放模型系列 Gemma。NVIDIA 最近與谷歌合作,在所有適用于 Gemma 的 NVIDIA AI 平臺上推出了優化方案,幫助降低客戶成本,并加快針對特定領域用例的創新工作。
兩家公司的團隊進行了密切合作,利用NVIDIA TensorRT-LLM(一個開源庫,用于優化在NVIDIA GPU上運行的大語言模型的推理性能)加速 Gemma 的性能。創建 Gemma 所采用的研究和技術,與創建谷歌 DeepMind 功能強大的 Gemini 模型完全相同。
包含在NVIDIA AI Enterprise 軟件平臺中的NVIDIA NIM 微服務將與 Google Kubernetes Engine(GKE)共同為 AI 應用開發以及將優化的 AI 模型部署到生產中提供簡化的途徑。NIM 是基于NVIDIA Triton 推理服務器、TensorRT-LLM 等推理引擎所構建,其支持各種領先的 AI 模型,并提供無縫銜接、可擴展的 AI 推理,以加速企業中的生成式 AI 部署。
Gemma 系列模型包括 Gemma 7B、RecurrentGemma 和 CodeGemma 等,這些模型均可從 NVIDIA API 目錄中獲取。用戶可在瀏覽器、帶有 API 端點的原型和 NIM 的自托管中進行試用。
通過 GKE 和 Google Cloud HPC Toolkit,在谷歌云平臺上部署NVIDIA NeMo框架變得更加輕松。這使開發者能夠自動化與擴展生成式 AI 模型的訓練和服務,并通過可定制藍圖來快速部署一站式環境,從而快速啟動開發流程。
NVIDIA AI Enterprise 中的 NVIDIA NeMo 也可以在谷歌云 Marketplace 上獲得,這為客戶提供了另一種輕松訪問 NeMo 和其他框架的方式,以加速 AI 開發。
為進一步擴大由 NVIDIA 提供加速的生成式 AI 計算的供應范圍,谷歌云還宣布 A3 Mega 將于下月全面上市。這些實例是其 A3 虛擬機系列的擴展,搭載了 NVIDIA H100 Tensor Core GPU。新實例將使 A3 虛擬機的 GPU 到 GPU 網絡帶寬增加一倍。
A3 上的谷歌云全新機密虛擬機還將加入對機密計算的支持,以便幫助客戶保護其敏感數據的機密性和完整性,并在訓練和推理過程中確保應用和 AI 工作負載的安全(在使用 H100 GPU 加速時無需更改代碼)。這些 GPU 驅動的機密虛擬機將在今年推出預覽版。
下一個主角:
NVIDIA Blackwell 架構 GPU
采用NVIDIA Blackwell 平臺的 NVIDIA 最新 GPU 將于明年初登陸谷歌云,推出NVIDIA HGX B200和NVIDIA GB200 NVL72兩種版本。
HGX B200 專門用于要求最高的 AI、數據分析和高性能計算工作負載;GB200 NVL72 專門用于下一代大規模萬億參數模型的訓練和實時推理。
NVIDIA GB200 NVL72 通過 900GB/s 的片間互聯連接 36 個 Grace Blackwell 超級芯片,每個超級芯片上有 2 個NVIDIA Blackwell GPU和 1 個NVIDIA Grace CPU,一個 NVIDIA NVLink 域最高支持 72 個 Blackwell GPU 和 130TB/s 的帶寬。與上一代產品相比,它克服了通信瓶頸并且能夠作為單顆 GPU 運行,其實時 LLM 推理和訓練速度分別提高了 30 倍和 4 倍。
NVIDIA GB200 NVL72 是一套多節點機架級擴展系統,它將使用谷歌云的第四代先進液冷系統。
NVIDIA 于 3 月宣布,NVIDIA DGX Cloud已在搭載 H100 GPU 的 A3 虛擬機上全面推出,該 AI 平臺是面向企業開發者的 AI 平臺,針對生成式 AI 的需求進行了優化。搭載 GB200 NVL72 的 DGX Cloud 也將于 2025 年在谷歌云上推出。
審核編輯:劉清
-
NVIDIA
+關注
關注
14文章
4793瀏覽量
102432 -
LLM
+關注
關注
0文章
247瀏覽量
279 -
生成式AI
+關注
關注
0文章
463瀏覽量
412 -
AI大模型
+關注
關注
0文章
281瀏覽量
214
原文標題:引擎全開:NVIDIA 與谷歌云共同加速 AI 開發
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論