精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達重磅發布H200,容量翻倍,帶寬狂飆

strongerHuang ? 來源:半導體行業觀察 ? 2023-11-15 16:09 ? 次閱讀

在今年的S23大會上,NVIDIA 突然宣布推出了 NVIDIA HGX H200,為全球領先的 AI 計算平臺帶來強大動力。據介紹,該平臺基于 NVIDIA Hopper 架構,配備 NVIDIA H200 Tensor Core GPU 和高級內存,可處理生成 AI 和高性能計算工作負載的海量數據。

英偉達指出,NVIDIA H200 是首款提供 HBM3e 的 GPU,作為一種更快、更大的內存,HBM3e可加速生成式 AI 和大型語言模型,同時能推進 HPC 工作負載的科學計算。借助 HBM3e,NVIDIA H200 能以每秒 4.8 TB 的速度提供 141GB 內存,與前前一代的NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。

581caa1e-838b-11ee-939d-92fbcf53809c.jpg

HGX H200 由 NVIDIA NVLink 和 NVSwitch 高速互連提供支持,可為各種應用工作負載提供最高性能,包括針對超過 1750 億個參數的最大模型的 LLM 訓練和推理。英偉達表示,在不斷發展的人工智能領域,企業依靠LLM來滿足各種推理需求。當為大量用戶群大規模部署時,人工智能推理加速器必須以最低的 TCO 提供最高的吞吐量。

在處理 Llama2 (一個 700 億參數的 LLM)等 LLM 時,H200 的推理速度比 H100 GPU 提高了 2 倍。

582ac536-838b-11ee-939d-92fbcf53809c.png

英偉達進一步指出,內存帶寬對于 HPC 應用程序至關重要,因為它可以實現更快的數據傳輸,減少復雜的處理瓶頸。對于模擬、科學研究和人工智能等內存密集型 HPC 應用,H200 更高的內存帶寬可確保高效地訪問和操作數據,與 CPU 相比,獲得結果的時間最多可加快 110 倍。

5830e6be-838b-11ee-939d-92fbcf53809c.png

隨著 H200 的推出,能源效率和 TCO 達到了新的水平。這項尖端技術提供了無與倫比的性能,且功率配置與 H100 相同。人工智能工廠和超級計算系統不僅速度更快,而且更環保,提供了推動人工智能和科學界向前發展的經濟優勢。

583e67b2-838b-11ee-939d-92fbcf53809c.png

NVIDIA H200 將應用于具有四路和八路配置的 NVIDIA HGX H200 服務器主板,這些主板與 HGX H100 系統的硬件和軟件兼容。它還可用于8 月份發布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper superichip。

據介紹,八路 HGX H200 提供超過 32 petaflops 的 FP8 深度學習計算和 1.1TB 聚合高帶寬內存,可在生成式 AI 和 HPC 應用中實現最高性能。

5845cd7c-838b-11ee-939d-92fbcf53809c.png

英偉達表示,H200 可以部署在各種類型的數據中心中,包括本地、云、混合云和邊緣。NVIDIA 的全球生態系統合作伙伴服務器制造商(包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、惠普企業、英格拉科技、聯想、QCT、Supermicro、緯創資通和緯穎科技)可以使用 H200 更新其現有系統。

而除了CoreWeave、Lambda和 Vultr 之外,亞馬遜網絡服務、谷歌云、微軟 Azure 和甲骨文云基礎設施將從明年開始成為首批部署基于 H200 實例的云服務提供商。

HBM3e,H200的升級重點

隨著速度更快、容量更大的 HBM3E 內存將于 2024 年初上線,NVIDIA 一直在準備其當前一代服務器 GPU 產品以使用新內存。早在 8 月份,我們就看到 NVIDIA 計劃發布配備 HBM3E 的 Grace Hopper GH200 超級芯片版本。這次NVIDIA 宣布的H200,其實就是配備 HBM3E 內存的獨立 H100 加速器的更新版本。

據SK海力士介紹,HBM3E不僅滿足了用于AI的存儲器必備的速度規格,也在發熱控制和客戶使用便利性等所有方面都達到了全球最高水平。在速度方面,其最高每秒可以處理1.15TB(太字節)的數據。其相當于在1秒內可處理230部全高清(Full-HD,FHD)級電影(5千兆字節,5GB)。值得一提的是,美光在七月還宣布推出超過 1.2TBps HBM3 gen 2 產品,這表明 SK 海力士還有很多追隨的工作要做。

584d6c12-838b-11ee-939d-92fbcf53809c.jpg

與 Grace Hopper 的同類產品一樣,H200 的目的是通過推出具有更快和更高容量內存芯片版本,作為 Hx00 產品線的中期升級。利用美光和其他公司即將推出的HBM3E 內存,NVIDIA 將能夠提供在內存帶寬受限的工作負載中具有更好的實際性能的加速器,而且還能夠提供能夠處理更大工作負載的部件。這對于生成式AI 領域尤其有幫助——迄今為止,該領域幾乎推動了對 H100 加速器的所有需求——因為最大的大型語言模型可以最大程度地支持 80GB H100。

與此同時,由于 HBM3E 內存要到明年才能發貨,NVIDIA 一直在利用這個間隙發布 HBM3E 更新部件。繼今年夏天發布 GH200 后,NVIDIA 宣布采用 HBM3E 的 Hx00 加速器獨立版本只是時間問題,現在H200終于到來。

58551002-838b-11ee-939d-92fbcf53809c.png

從今天披露的規格來看,H200 基本上看起來就像是 GH200 的 Hopper 一半,作為自己的加速器。當然,這里最大的區別是將 HBM3 替換為 HBM3E,這使得 NVIDIA 能夠提高內存帶寬和容量,并且 NVIDIA 啟用了第 6 個HBM內存堆棧,該堆棧在原始 H100 中被禁用。這將使 H200 的內存帶寬從 80GB 提升至 141GB,內存帶寬從 3.35TB/秒提升至 NVIDIA 初步預期的 4.8TB/秒。

根據總帶寬和內存總線寬度向后推算,這表明 H200 的內存將以大約 6.5Gbps/引腳運行,與原始 H100 的 5.3Gbps/引腳 HBM3 內存相比,頻率增加了大約 25%。這實際上遠低于 HBM3E 額定的內存頻率(美光希望達到 9.2Gbps/pin),但由于它正在針對現有 GPU 設計進行改造,因此看到 NVIDIA 當前的內存控制器沒有相同的內存頻率范圍也就不足為奇了。

H200還將保留GH200不同尋常的141GB內存容量。HBM3E 內存本身的物理容量為 144GB(以六個 24GB 堆棧的形式出現),但 NVIDIA 出于產量原因保留了部分容量。因此,客戶無法訪問板載的所有 144GB,但與 H100 相比,他們可以訪問所有六個堆棧,并具有容量和內存帶寬優勢。

正如我們之前所說,運送具有全部 6 個工作堆棧的部件基本上需要完美的芯片,因為 H100 的規格非常慷慨地允許 NVIDIA 運送具有非功能堆棧的部件。因此,與同類 H100 加速器(已經供不應求)相比,這可能是體積較小、良率更低的部件。

除此之外,到目前為止,NVIDIA 尚未透露任何信息表明 H200 將比其前身具有更好的原始計算吞吐量。雖然內存變化應該會提高實際性能,但 NVIDIA 為 HGX H200 集群引用的 32 PFLOPS FP8 性能與當今市場上的 HGX H100 集群相同。

不過據anadtech分析,H200 迄今為止僅適用于 SXM5 插槽,并且在矢量和矩陣數學方面具有與 Hopper H100 加速器完全相同的峰值性能統計數據。區別在于,H100 具有 80 GB 和 96 GB 的 HBM3 內存,在初始設備中分別提供 3.35 TB/秒和 3.9 TB/秒的帶寬,而 H200 具有 141 GB 更快的 HBM3e 內存,帶寬為 4.8總帶寬 TB/秒。

與 Hopper 基準相比,內存容量增加了 1.76 倍,內存帶寬比 Hopper 基準增加了 1.43 倍——所有這些都在相同的 700 瓦功率范圍內。作為對比,AMD 的Antares MI300X 將提供 5.2 TB/秒的帶寬和 192 GB 的 HBM3 容量,并且很可能提供更高的峰值浮點功率,但也可能只是更有效的浮點功率。

最后,與配備 HBM3E 的 GH200 系統一樣,NVIDIA 預計 H200 加速器將于 2024 年第二季度推出。

HGX H200和Quad GH200 ,同時發布

除了 H200 加速器之外,NVIDIA 還發布了 HGX H200 平臺,這是使用較新加速器的 8 路 HGX H100 的更新版本。HGX 載板是 NVIDIA H100/H200 系列的真正支柱,包含 8 個 SXM 外形加速器,這些加速器以預先安排的全連接拓撲連接。HGX 板的獨立性質使其能夠插入合適的主機系統,從而允許 OEM 定制其高端服務器的非 GPU 部分。

鑒于 HGX 與 NVIDIA 的服務器加速器齊頭并進,HGX 200 的發布很大程度上只是一種形式。盡管如此,NVIDIA 仍確保在 SC23 上宣布這一消息,并確保 HGX 200 主板與 H100 主板交叉兼容。因此,服務器制造商可以在當前的設計中使用 HGX H200,從而實現相對無縫的過渡。

隨著 NVIDIA 現在批量發售 Grace 和 Hopper(以及 Grace Hopper)芯片,該公司還宣布推出一些使用這些芯片的其他產品。其中最新的是 4 路 Grace Hopper GH200 板,NVIDIA 簡稱為 Quad GH200。

名副其實,Quad GH200 將四個 GH200 加速器放置在一塊板上,然后可以安裝在更大的系統中。各個 GH200 以 8 芯片、4 路 NVLink 拓撲相互連接,其想法是使用這些板作為更大系統的構建塊。

實際上,Quad GH200 是與 HGX 平臺相對應的 Grace Hopper。與僅 GPU 的 HGX 板不同,Grace CPU 的加入在技術上使每個板獨立且自支撐,但將它們連接到主機基礎設施的需求保持不變。

Quad GH200 節點將提供 288 個 Arm CPU 內核和總計 2.3TB 的高速內存。值得注意的是,NVIDIA 在這里沒有提到使用 GH200 的 HBM3E 版本(至少最初沒有),因此這些數字似乎是原始的 HBM3 版本。這意味著我們希望每個 Grace CPU 配備 480GB LPDDR5X,每個 Hopper GPU 配備 96GB HBM3。或者總共1920GB LPDDR5X和384GB HBM3內存。

一臺超級計算機:23762個GH200,18.2 兆瓦

在發布H200的同時,NVIIDA 還宣布與 Jupiter 合作贏得了一項新的超級計算機設計。根據 EuroHPC 聯合組織的訂購,Jupiter 將成為由 23,762 個 GH200 節點構建的新型超級計算機。一旦上線,Jupiter 將成為迄今為止宣布的最大的基于 Hopper 的超級計算機,并且是第一臺明確(且公開)針對標準 HPC 工作負載以及已經出現的低精度張量驅動的 AI 工作負載的超級計算機。定義迄今為止宣布的基于 Hopper 的超級計算機。

Jupiter 與 Eviden 和 ParTec 簽約,徹底展示了NVIDIA 技術。基于 NVIDIA 今天發布的 Quad GH200 節點,Grace CPU 和 Hopper GPU 成為超級計算機的核心。各個節點均由 Quantum-2 InfiniBand 網絡支持,毫無疑問基于 NVIDIA 的 ConnectX 適配器。

該公司沒有透露具體的核心數量或內存容量數據,但由于我們知道單個 Quad GH200 主板提供的功能,因此數學計算很簡單。在高端(假設沒有出于良率原因進行回收/合并),這將是 23,762 個 Grace CPU、23,762 個 Hopper H100 級 GPU、大約 10.9 PB 的 LPDDR5X 和另外 2.2PB 的 HBM3 內存。

該系統預計為人工智能用途提供 93 EFLOPS 的低精度性能,或為傳統 HPC 工作負載提供超過 1 EFLOPS 的高精度 (FP64) 性能。后一個數字尤其值得注意,因為這將使 Jupiter 成為第一個用于 HPC 工作負載的基于 NVIDIA 的百億億次系統。

也就是說,應謹慎對待 NVIDIA 的 HPC 性能聲明,因為 NVIDIA 仍在計算張量性能 - 1 EFLOPS 是 23,762 個 H100 只能通過 FP64 張量運算提供的東西。理論 HPC 超級計算機吞吐量的傳統指標是矢量性能而不是矩陣性能,因此該數字與其他系統不完全可比。不過,由于 HPC 工作負載也部分地大量使用了矩陣數學,因此這也不是一個完全無關的說法。否則,對于任何尋求強制性 Frontier 比較的人來說,Jupiter 的直接矢量性能將約為 800 TFLOPS,而 Frontier 的直接矢量性能是 Frontier 的兩倍多。另一方面,這兩個系統在現實條件下的接近程度將取決于它們各自的工作負載中使用了多少矩陣數學(LINPACK 結果應該很有趣)。

該系統的價格標簽尚未公布,但功耗為:18.2 兆瓦電力(比 Frontier 少約 3 兆瓦)。因此,無論系統的真實價格是多少,就像系統本身一樣,它絕不是嬌小的。

根據 NVIDIA 的新聞稿,該系統將安裝在德國于利希研究中心 (Forschungszentrum Jülich) 設施中,用于“創建氣候和天氣研究、材料科學、藥物發現、工業工程和量子計算領域的基礎人工智能模型”。” 該系統計劃于 2024 年安裝,但尚未公布預計上線日期。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10826

    瀏覽量

    211160
  • 語言模型
    +關注

    關注

    0

    文章

    508

    瀏覽量

    10245
  • 英偉達
    +關注

    關注

    22

    文章

    3748

    瀏覽量

    90836

原文標題:英偉達重磅發布H200,容量翻倍,帶寬狂飆

文章出處:【微信號:strongerHuang,微信公眾號:strongerHuang】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    英偉H200芯片將大規模交付

    英偉AI GPU市場迎來新動態,其H200型號上游芯片端已于第二季度下旬正式進入量產階段,預示著該產品將在第三季度后迎來大量交付。然而,英偉
    的頭像 發表于 07-04 10:29 ?636次閱讀

    英偉H200顯卡參數是什么

    英偉H200顯卡的參數非常出色,主要表現在以下幾個方面。
    的頭像 發表于 03-07 17:02 ?2481次閱讀

    英偉H200顯卡怎么樣

    英偉H200顯卡是一款表現出色的產品,其在性能、技術、應用等方面都有顯著的優勢。
    的頭像 發表于 03-07 16:50 ?1818次閱讀

    英偉H200上市時間

    英偉H200于2023年11月13日正式發布。然而,由于HBM3e芯片供應問題,其實際開售時間有所延遲。英偉
    的頭像 發表于 03-07 16:46 ?2189次閱讀

    英偉H200帶寬狂飆

    英偉H200帶寬的顯著提升主要得益于其強大的硬件配置和先進的技術創新。H200配備了高達141GB的HBM3e顯存,與前代產品
    的頭像 發表于 03-07 16:44 ?894次閱讀

    英偉H200性能怎么樣

    英偉H200性能卓越,集成了高性能CPU和GPU,通過高速NVLink連接,消除了傳統計算瓶頸。其配備了高達141GB的HBM3e高帶寬內存,大幅提升了數據處理能力。
    的頭像 發表于 03-07 16:39 ?957次閱讀

    英偉H200H800的區別

    英偉H200H800在多個方面存在一些關鍵性的區別。
    的頭像 發表于 03-07 16:30 ?3304次閱讀

    英偉H200和A100的區別

    英偉H200和A100兩款芯片在性能、架構、內存以及應用場景等多個方面存在顯著的區別。
    的頭像 發表于 03-07 16:23 ?3384次閱讀

    英偉H200和A100的差異

    英偉H200和A100在多個方面存在差異。
    的頭像 發表于 03-07 16:18 ?2257次閱讀

    英偉H200算力怎么樣

    英偉H200的算力非常強大。作為新一代AI芯片,H200在性能上有了顯著的提升,能夠處理復雜的AI任務和大數據分析。然而,具體的算力數值可能因芯片配置、應用場景以及優化方向等因素而有
    的頭像 發表于 03-07 16:15 ?1976次閱讀

    英偉H200能作為普通顯卡使用嗎

    英偉H200不能作為普通顯卡使用。H200是一款專為AI計算設計的芯片,它并不具備普通顯卡的圖形渲染能力。H200的主要用途是處理生成式人
    的頭像 發表于 03-07 16:13 ?1405次閱讀

    英偉H200顯卡價格

    英偉H200顯卡的具體價格尚未公布。根據上一代H100顯卡的價格范圍,預計H200的單片價格將超過40000美元。由于新芯片通常定價較高,
    的頭像 發表于 03-07 16:09 ?3922次閱讀

    英偉H200什么時候上市

    英偉于2023年11月13日發布了新一代AI芯片H200,但具體的上市時間可能因各種因素有所調整。近期有消息傳出,英偉
    的頭像 發表于 03-07 16:04 ?1013次閱讀

    英偉H200H100的比較

    英偉H200H100是兩款不同的AI芯片,它們各自具有獨特的特點和優勢。以下是關于這兩款芯片的一些比較。
    的頭像 發表于 03-07 15:53 ?4291次閱讀

    英偉H200參數說明

    英偉H200是一款新一代AI芯片,于2023年11月14日正式發布,主要被設計用來處理生成式人工智能負載的海量數據。
    的頭像 發表于 03-07 15:48 ?1654次閱讀