精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI時代核心存力HBM(上)

閃德半導體 ? 來源:閃德半導體 ? 2024-11-16 10:30 ? 次閱讀

一、HBM 是什么?

1、HBM 是 AI 時代的必需品作為行業主流存儲產品的動態隨機存取存儲器 DRAM 針對不同的應用領域定義了不同的產 品,幾個主要大類包括 LPDDR、DDR、GDDR 和 HBM 等,他們雖然均使用相同的 DRAM 存儲單 元(DRAM Die),但其組成架構功能不同,導致對應的性能不同。手機、汽車、消費類等 對低功耗要求高主要使用 LPDDR,服務器和 PC 端等有高傳輸、高密度要求則使用 DDR,圖 形處理及高算力領域對高吞吐量、高帶寬、低功耗等綜合性要求極高則使用 GDDR 和 HBM。 HBM(High Bandwidth Memory),意為高帶寬存儲器,是一種面向需要極高吞吐量的數據密集型應用程序的 DRAM,常被用于高性能計算、網絡交換及轉發設備等需要高存儲器帶寬的領域。那么 HBM 到底優勢在哪呢?通過 TSV 技術,堆疊方案解決內存墻的問題。基于馮·諾依曼理論的傳統計算機系統架構一直存在“內存墻”的問題。

a9c65a68-907d-11ef-a511-92fbcf53809c.png

HBM 通過硅中介層和 TSV 來運行

主要歸因于:第一存儲與計算單元分離,存儲與處理器之間通過總線傳輸數據,這容易導致存儲的帶寬計算單元的帶寬,從而導致 AI 算力升級較慢;

第二,是高功耗,在處理器和存儲之間頻繁傳輸數據,會產生較多的能耗,也會使傳輸速率下降。相較于傳統 GDDR,HBM 具有更高速,更低耗,更輕薄等諸多優點。HBM 憑借獨特的 TSV 信號縱向連接技術,其內部將數個 DRAM 芯片在緩沖芯片上進行立體 堆疊,其內部堆疊的 DDR 層數可達 4 層、8 層以至 12 層,從而形成大容量、高位寬的 DDR 組合陣列。

a9db7556-907d-11ef-a511-92fbcf53809c.png

GDDR 與 HBM 結構分布

TSV 是在 DRAM 芯片上搭上數千個細微孔并通過垂直貫通的電極連接上下芯片的技術。該技術在緩沖芯片上將數個 DRAM 芯片堆疊起來,并通過貫通所有芯片層的柱狀 通道傳輸信號、指令、電流。相較傳統封裝方式,該技術能夠縮減 30%體積,并降低 50% 能耗。

憑借 TSV 方式,HBM 大幅提高了容量和位寬(I/O 數量)。與傳統內存技術相比,HBM 具有更高帶寬、更多 I/O 數量、更低功耗、更小尺寸等特征。

具體來看:(1)存儲帶寬問題:由于存儲的制成與封裝工藝與 CPU 的制成封裝工藝不同,CPU 使用的是 SRAM 寄存器,速度快,雙穩態電路,而存儲器使用的是 DRAM 寄存器,速度慢,單穩態電路。這樣的工藝不同拉大了兩者間的差距,在過去 20 年內,CPU 的峰值計算能力增加了 90000 倍,內存/硬件互存寬帶卻只是提高了 30 倍。存儲的帶寬通過總線一直限制著計算單位的帶寬,最新型的 GDDR6 單顆帶寬上限在 96GB/s,而最新型的單棧HBM3E 帶寬上限近 1.2TB/s,在 AI 應用中,每個 SoC 的帶寬需求都會超過幾 TB/s,上百倍的數據傳輸差距使得傳統 DRAM 遠不能滿足 AI 訓練所需的算力缺口。(2)傳輸效能問題:由于分離距離問題,數據存算間(I/O)會有很大的延誤,一步數據計算過后的大部分時間都在讀取內存,查詢所用的大量時間與吞吐量影響用戶體驗,數據傳輸能量消耗占總數據存算的 60-90%,嚴重浪費效能。(3)占用空間問題:傳統 GDDR 由于是 2D 平面分布,占用空間大,無法滿足目前消費電子輕量化與便攜化的需求。

a9fd76a6-907d-11ef-a511-92fbcf53809c.png

傳統打線與 TSV 穿孔區別

aa175abc-907d-11ef-a511-92fbcf53809c.png

GDDR 與 HBM 占用空間對比

HBM 包括多層 DRAM 芯片和一層基本邏輯芯片,不同 DRAM 以及邏輯芯片之間用 TSV 與微凸 塊技術實現通道連接,每個 HBM 芯片可與多達 8 條通道與外部連接,每個通道可單獨訪問 1 組 DRAM 陣列,通道間訪存相互獨立。邏輯芯片可以控制 DRAM 芯片,并提供與處理器芯 片連接的接口,主要包括測試邏輯模塊與物理層(PHY)接口模塊,其中 PHY 接口通過中 間介質層與處理器直接連通,直接存取(DA)端口提供 HBM 中多層 DRAM 芯片的測試通道。

中間介質層通過微凸塊連接到封裝基板,從而形成 SiP 系統。

aa332ee0-907d-11ef-a511-92fbcf53809c.png

HBM 架構詳解

aa5fbb9a-907d-11ef-a511-92fbcf53809c.png

HBM3 在 NVIDIA Hopper 架構的應用AI 時代存力的首選自 ChatGPT 爆火之后,國內外大廠爭相競逐 AI 大模型。而 AI 大模型的基礎,就是靠海量 數據和強大算力來支撐訓練和推理過程。其中一些模型有 1000 億字節的數據,參數量越 大,AI 模型越智能,以 GPT-4 模型為例有近 1.76 萬億參數量。

對于每次重新訓練的迭代, 都必須從數據中心背板的磁盤上取出 1000 億字節的數據并進入計算盒,在為期兩個月的訓練中,必須來回調取數百萬次如此龐大的數據。如果能縮短數據存取,就會大大簡化訓 練過程。但在過去 20 年中,存儲和計算并沒有同步發展,硬件的峰值計算能力增加了 90000 倍,而內存/硬件互連帶寬卻只是提高了 30 倍。

當存儲的性能跟不上處理器,對指令和數 據的搬運(寫入和讀出)的時間將是處理器運算所消耗時間的幾十倍乃至幾百倍,這就要 打破“內存墻”。此時,高帶寬內存 HBM 應運而生,被認為是 AI 計算的首選內存。

aa977a4e-907d-11ef-a511-92fbcf53809c.png

GDDR 與 HBM 性能對比

aab3aba6-907d-11ef-a511-92fbcf53809c.png

不同內存類型之間 DRAM 容量和帶寬的差異 HBM 解決了傳統 GDDR 遇到的“內存墻”問題,采用了存算一體的近存計算架構,不通過外部連線的方式與 GPU/CPU/Soc 連接,而是通過中間介質層緊湊快速地連接信號處理器芯片,極大的節省了數據傳輸所使用的時間與耗能。 而在空間占用上,HBM 采用的堆 棧技術會使得在空間占用要比同比傳統 GDDR 節省 94%。在應對目前云端 AI 的多用戶, 高吞吐,低延遲,高密度部署需求所帶來的計算單位需求,I/O 數量也需要不斷突破滿足 計算單位的需求。使用 GDDR 所適配的 PCB 技術并不能突破 I/O 數量瓶頸,而 HBM 的 TSV 技術帶來的存儲器集成度極大提升,使得帶寬不再受制于芯片引腳的互聯數量,在一定程度上解決了 I/O 瓶頸,成為高算力芯片的首選。

aac982b4-907d-11ef-a511-92fbcf53809c.png

HBM 在 GPU 中搭配

aaf6a4ba-907d-11ef-a511-92fbcf53809c.png

HBM 與 GPU 集成在一起2 NVIDIA 和 AMD 依靠 HBM 持續提升 GPU 性能HBM 新型存儲器較傳統 GDDR 具有更高的帶寬,更低的延遲和更好的等效比。隨著 AI 對算 力的高要求,高帶寬內存顯然是高性能 GPU 的最佳搭配,AMD 和 NVIDIA 兩家尖端的 GPU 都陸續配備了 HBM。

ab14553c-907d-11ef-a511-92fbcf53809c.png

NVIDIA 不同 GPU 型號搭載 HBM 情況

ab376766-907d-11ef-a511-92fbcf53809c.png

AMD 不同 GPU 型號搭載 HBM 情況 NVIDIA 已在搭載 HBM 的 GPU 型號上迭代 5 次,性能也在不斷跟進以適配 AI 模型與訓練的 需求。在 7 年時間內,從 V100 架構時代搭載的 HBM2 已經演化到了 GB200 的 HBM3E,而內 存寬帶與容量則是在這幾年內翻了數倍。

以同一 Hopper 架構下的 H100 SXM 和 H200 SXM 為例,在其他硬件條件與接口協議相同的情況下,搭載了 HBM3E 的 H200 SXM 要比搭載了 HBM3 的 H100 SXM 在帶寬速率上提升了 43%,在容量上也是擴增了 76%。而對比落后了一 整代,搭載了 HBM 2E 的 A100 SXM,帶寬速率更是提高了 141%,所有的這一切提升都是 HBM 性能迭代帶來的優勢。

ab50afaa-907d-11ef-a511-92fbcf53809c.png

隨著搭載 HBM 容量提升 GPU 效能倍數提升

ab5bcfb6-907d-11ef-a511-92fbcf53809c.png

H200 較 H100 在大模型領域性能提升情況 歸因于 AI 大模型的逐步迭代,GPU 迭代速度加快。核心供應商 NVIDIA 和 AMD 新品性能競 爭,預計 2025 年加速 HBM 規格需求大幅轉向 HBM3e,且將會有更多 12hi 的產品出現,帶 動單芯片搭載 HBM 的容量提升。根據 TrendForce 集邦咨詢預估,2024 年的 HBM 需求位元 年成長率近 200%,2025 年可望將再翻倍。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • DRAM
    +關注

    關注

    40

    文章

    2303

    瀏覽量

    183304
  • 存儲
    +關注

    關注

    13

    文章

    4261

    瀏覽量

    85666
  • HBM
    HBM
    +關注

    關注

    0

    文章

    373

    瀏覽量

    14704

原文標題:AI時代核心存力 HBM(上)

文章出處:【微信號:閃德半導體,微信公眾號:閃德半導體】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI需求的暴增,HBM和GDDR SDRAM成為AI芯片新的內存方案

    然而在此過程中,我們除了看到AI對算的要求以外,內存帶寬也是限制AI芯片發展的另一個關鍵要HBM2E成為了AI芯片的一個優先選擇,這也是英
    發表于 11-09 12:45 ?2738次閱讀

    HBM搶單大戰,才剛剛拉開帷幕

    市場非常吃香的 HBM 內存。 ? AI 芯片帶來的 HBM 熱潮 ? 在 AI 芯片的設計中,除了需要先進工藝和先進封裝在有限的面積下提供足夠的算
    的頭像 發表于 12-13 01:27 ?1574次閱讀
    <b class='flag-5'>HBM</b>搶單大戰,才剛剛拉開帷幕

    被稱為“小號HBM”,華邦電子CUBE進階邊緣AI存儲

    ,分享了華邦推出的CUBE產品在邊緣AI的應用優勢以及對存儲應用市場的看法等話題。 ? CUBE :小號HBM ? “華邦電子近兩三年都在推CUBE產品,我們可以把CUBE形象地看作小號的H
    的頭像 發表于 07-01 16:21 ?2901次閱讀

    大模型時代的算需求

    現在AI已進入大模型時代,各企業都爭相部署大模型,但如何保證大模型的算,以及相關的穩定性和性能,是一個極為重要的問題,帶著這個極為重要的問題,我需要在此書中找到答案。
    發表于 08-20 09:04

    【AD新聞】AI時代,一美元能夠買到多強的算

    、數據和算,并稱為新AI時代三大驅動力。如何在追求更好性能的同時實現低功耗、低延遲和低成本,逐漸成為擺在所有AI從業者面前的艱巨挑戰之一。日前,深鑒科技ASIC副總裁陳忠民應邀在“2
    發表于 03-23 15:27

    AI核心是什么?

    AI概念籠統,范圍廣大,到底什么才是AI核心?手把手教你設計人工智能芯片及系統(全階設計教程+AI芯片FPGA實現+開發板)詳情鏈接:http://url.elecfans.com/
    發表于 10-18 06:39

    嵌入式系統的核心競爭是什么

    不管是什么技術想要有自己的發展前景就要有自己的有點在現在這這個技術快速發展的時代必須要有自己的核心競爭才會有好的發展空間。接下來呢我們就來看一下嵌入式系統的核心競爭
    發表于 11-08 08:46

    英偉達全球首發HBM3e 專為生成式AI時代打造

    2023年8月8日,NVIDIA創始人兼CEO黃仁勛在計算機圖形年會SIGGRAPH發布了HBM3e內存新一代GH200 Grace Hopper超級芯片。這款芯片被黃仁勛稱為“加速計算和生成式AI
    的頭像 發表于 08-11 16:29 ?1134次閱讀

    全面分析服務器/AI計算的算框架

    NAND、DRAM等核心存儲器在制程方面臨近極限,不斷探索“3D”等多維解決方案。HBM基于其高寬帶特性,成為了高性能GPU的核心組件,市場前景廣闊。
    發表于 11-20 16:19 ?615次閱讀
    全面分析服務器/<b class='flag-5'>AI</b>計算的算<b class='flag-5'>力</b>框架

    需求催生存風口,HBM競爭從先進封裝開始

    無疑是今年最火熱的高端存儲產品。 ? 在AI芯片需求不減競爭加劇的背景下,全球最大的兩家存儲器芯片制造商三星和SK海力士都在積極擴大HBM產量搶占AI芯片存風口。與此同時,作為
    的頭像 發表于 12-03 08:34 ?2337次閱讀

    大算芯片里的HBM,你了解多少?

    內外人士的視野和傳統的GDDR相比,HBM不僅僅提供了更大的位數寬度,而且通過TSV和Interposer的連接方式,大幅降低了數據通訊的能量損耗。這對于大算芯片的
    的頭像 發表于 12-05 16:14 ?1594次閱讀
    大算<b class='flag-5'>力</b>芯片里的<b class='flag-5'>HBM</b>,你了解多少?

    大模型時代必備存儲之HBM進入汽車領域

    大模型時代AI芯片必備HBM內存已是業內共識,存儲帶寬也成為AI芯片僅次于算的第二關健指標,甚至某些場合超越算
    發表于 12-12 10:38 ?790次閱讀
    大模型<b class='flag-5'>時代</b>必備存儲之<b class='flag-5'>HBM</b>進入汽車領域

    中國AI芯片和HBM市場的未來

     然而,全球HBM產能幾乎被SK海力士、三星和美光壟斷,其中SK海力士占據AI GPU市場80%份額,是Nvidia HBM3內存獨家供應商,且已于今年3月啟動HBM3E量產。
    的頭像 發表于 05-28 09:40 ?832次閱讀

    億鑄科技熊大鵬探討AI大算芯片的挑戰與解決策略

    在SEMiBAY2024《HBM與存儲器技術與應用論壇》,億鑄科技的創始人、董事長兼CEO熊大鵬博士發表了題為《超越極限:大算芯片的技術挑戰與解決之道》的演講,深入剖析了AI大模型
    的頭像 發表于 10-25 11:52 ?329次閱讀

    AI時代核心存HBM(中)

    HBM 對半導體產業鏈的影響1. HBM核心工藝在于硅通孔技術(TSV)和堆疊鍵合技術 硅通孔:TSV(Through-Silicon Via) 是一種能讓 3D 封裝遵循摩爾定律演進的互連技術
    的頭像 發表于 11-16 09:59 ?163次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>時代</b><b class='flag-5'>核心存</b><b class='flag-5'>力</b><b class='flag-5'>HBM</b>(中)