由于 GPU 嚴(yán)重短缺,Nvidia 收取的費(fèi)用是制造成本的 5 倍左右,業(yè)內(nèi)每個人都迫切希望找到替代方案。雖然谷歌在 AI 工作負(fù)載方面具有結(jié)構(gòu)性性能/TCO 優(yōu)勢,但由于其 TPU具有成熟的硬件和軟件OCS,因此與其他大型科技公司相比,我們認(rèn)為存在結(jié)構(gòu)性問題會阻止他們成為外部使用的領(lǐng)導(dǎo)者。
1、谷歌 TPU 將只能從 1 個公司在 1 個云中獲得。
2、谷歌Google 在芯片部署很久之后才會公開他們的芯片,因為大買家需要在發(fā)布前記錄下來,并在 ramp 之前提供早期訪問系統(tǒng)。
3、多年來,谷歌一直向用戶隱藏多項主要硬件功能,包括內(nèi)存/計算相關(guān)和網(wǎng)絡(luò)/部署靈活性。
4、谷歌拒絕為那些想要編寫自定義內(nèi)核以最大化性能的奇才在外部提供低級別的硬件文檔。
谷歌在 AI 基礎(chǔ)設(shè)施方面的最大技術(shù)進(jìn)步的守門人將使他們在結(jié)構(gòu)上與基于 Nvidia 的云產(chǎn)品相比處于落后地位,除非谷歌改變他們的運(yùn)作方式。來自亞馬遜和微軟等其他云的內(nèi)部芯片仍然遠(yuǎn)遠(yuǎn)落后。
在商業(yè)芯片的世界里, Cerebras 目前是最接近的競爭對手,在 GPT-3 上表現(xiàn)穩(wěn)定開源模型令人印象深刻,但硬件可訪問性非常有限,每臺服務(wù)器成本高達(dá)數(shù)百萬美元。在云中訪問 Cerebras 的唯一方法是通過他們自己的產(chǎn)品。缺乏訪問權(quán)會損害開發(fā)的靈活性。
Nvidia 生態(tài)系統(tǒng)的生命線是人們在各種各樣的系統(tǒng)上進(jìn)行開發(fā),從他們花費(fèi)數(shù)百美元的游戲 GPU 到最終能夠擴(kuò)展到擁有數(shù)萬個本地 GPU 或與所有第 3 方云服務(wù)提供商合作. 而Tenstorrent 等其他初創(chuàng)公司則表現(xiàn)出希望我們認(rèn)為硬件/軟件距離真正大踏步前進(jìn)還有一段距離。
盡管收購了兩家不同的數(shù)據(jù)中心 AI 硬件公司 Nervana 和 Habana,但世界上最大的商用芯片供應(yīng)商英特爾卻不見蹤影。Nervana幾年前就被拋棄了,現(xiàn)在的Habana身上似乎也發(fā)生了同樣的事情。英特爾目前正在使用他們的第二代Habana Gaudi 2,除了 AWS 上可用的一些實例外,幾乎沒有采用。
此外,隨著該產(chǎn)品被納入 2025 Falcon Shores GPU,英特爾已經(jīng)將路線圖宣告失敗。英特爾的 GPU,Ponte Vecchio 也好不到哪兒去。已經(jīng)很晚了,直到最近才完成對拖延已久的 Aurora 超級計算機(jī)的交付,再過 2 年就沒有繼任者了。它的性能通常無法與 Nvidia 的 H100 GPU 競爭。
AMD 是唯一一家擁有成功交付用于高性能計算的芯片記錄的公司。雖然這主要適用于他們的 CPU 端是一臺運(yùn)行良好的執(zhí)行機(jī)器,但它還可以進(jìn)一步擴(kuò)展。AMD 于 2021 年為全球首臺 ExaFLop 超級計算機(jī) Frontier 交付了 HPC GPU 芯片。雖然為 Frontier 提供動力的 MI250X 足以完成其主要工作,但它未能在云計算和超大規(guī)模用戶的大客戶中獲得任何影響力。
現(xiàn)在,每個人都期待著 AMD 的 MI300,它將于今年晚些時候交付給 El Capitan,這是他們的第二個 Exascale 超級計算機(jī)獲勝者。出于這個原因,一旦您將目光脫離 Nvidia ,AMD 即將推出的 MI300 GPU 將成為討論最多的芯片之一。我們也一直在密切關(guān)注其與Meta 的 PyTorch 2.0 和 OpenAI 的 Triton軟件的適配前景。自 Nvidia 的 Volta GPU 和 AMD 的 Rome CPU 以來,數(shù)據(jù)中心芯片還沒有引起如此大的轟動。
MI300,代號 Aqua Vanjaram,由多個復(fù)雜的硅層組成,坦率地說是工程奇跡。首席執(zhí)行官 Lisa Su 今年早些時候在 CES 上展示了 MI300 套件,讓我們了解 MI300 的結(jié)構(gòu)。我們看到 4 個硅片被 8 個 HBM 堆棧包圍。這是 HBM3 的最高 5.6 GT/s 速度,八個 16GB 堆棧形成 128GB 統(tǒng)一內(nèi)存,帶寬高達(dá) 5.734 TB/s。
與 3.3 TB/s 的 Nvidia H100 SXM 80GB 相比,其帶寬增加了 72%,容量增加了 60%。
AMD 獲得任何數(shù)量的 AI 計算美元的機(jī)會最終歸結(jié)為成為 hyperscalers 與 Nvidia 的可靠第二來源。假設(shè)是漲潮會托起所有船只。
當(dāng)然,預(yù)計在 AI 數(shù)據(jù)中心基礎(chǔ)設(shè)施上的大量支出將以某種方式使 AMD 受益。
AMD 硬件只是 AI 支出熱潮中的一個注腳。事實上,目前 AMD 在生成 AI 基礎(chǔ)設(shè)施建設(shè)方面相對失敗,因為他們在數(shù)據(jù)中心 GPU 方面缺乏成功安利,在 HGX H100 系統(tǒng)中缺乏 CPU 勝利,以及 普遍放棄 CPU 支出。因此,MI300 的成功至關(guān)重要。
01.基本構(gòu)建塊 - Elk Range 有源中介層芯片
MI300 的所有變體都以稱為 AID(active interposer die) 的相同基本構(gòu)建塊開始,即是所謂的有源中介層裸片。這是一款名為 Elk Range 的小芯片,尺寸約為 370mm2,采用臺積電的 N6 工藝技術(shù)制造。該芯片包含 2 個 HBM 內(nèi)存控制器、64MB 內(nèi)存附加末級 (MALL) Infinity Cache、3 個最新一代視頻解碼引擎、36 通道 xGMI/PCIe/CXL,以及 AMD 的片上網(wǎng)絡(luò) (NOC)。在 4 塊配置中,MALL 緩存為 256MB,而 H100 為 50MB。
AID 最重要的部分是它在 CPU 和 GPU 計算方面是模塊化的。AMD 和臺積電使用混合鍵合技術(shù)將 AID 連接到其他小芯片。這種通過銅 TSV 的連接允許 AMD 混合和匹配 CPU 與 GPU 的最佳比例。四個 AID 以超過 4.3 TB/s 的對分帶寬相互通信,啟用超短距離 (USR:Ultra Short Reach) 物理層,如 AMD Navi31 游戲 GPU 中的小芯片互連所示,盡管這次同時具有水平和垂直鏈路和具有對稱的讀/寫帶寬。方形拓?fù)溥€意味著對角線連接需要 2 跳(hops),而相鄰 AID 需要 1 跳。
?
這些 AID 中的 2 個或 4 個(根據(jù) MI300 變體具有不同的計算)在CoWoS 硅中介層的頂部組合在一起。AID 有兩種不同的流片,它們的. T鏡像很像英特爾的 Sapphire Rapids。
02.Compute Tiles——Banff XCD 和 DG300 Durango CCD
AID 之上的模塊化計算塊可以是 CPU 或 GPU。
在 GPU 方面,計算小芯片稱為 XCD,代號為 Banff。Banff在 TSMC N5 工藝技術(shù)上制造,約為 ~115mm2 。盡管只啟用了 38 個計算單元,但它總共包含 40 個計算單元。
該架構(gòu)由 AMD 的 MI250X 演變而來,在 GitHub 上,AMD 將其稱為 gfx940,但公開稱其為 CDNA3。它針對計算進(jìn)行了優(yōu)化,盡管是“GPU”,但不能真正處理圖形。
這同樣適用于 Nvidia 的 H100,它們的大部分 GPC 都無法處理圖形。
?
總的來說,每個 AID 可以有 2 個 Banff die,總共有 76 個 CU。MI300 的最大 XCD/GPU 配置將提供 304 個 CU。作為對比,AMD MI250X 具有 220 個 CU。 MI300 的另一個模塊化計算方面是 CPU 方面。AMD 部分重用了他們的 Zen 4 CCD 小芯片,盡管進(jìn)行了一些修改。
他們改變了一些金屬層掩模,為 SoIC 和 AID 創(chuàng)建焊盤,需要重新設(shè)計一些金屬掩模的新流片。這個修改過的 Zen 4 CCD,GD300 Durango 禁用了 GMI3 PHY。AID 的帶寬明顯高于 GMI3。此 CCD 采用 TSMC 的 5nm 工藝技術(shù),并保留與臺式機(jī)和服務(wù)器上的 Zen 4 CCD相同的 ~70.4mm 2芯片尺寸。
每個 AID 可以有 3 個 Zen 4 小芯片,總共 24 個內(nèi)核。MI300的最大CCD/CPU配置可以提供多達(dá)96個核心。
03.先進(jìn)封裝——品味未來
AMD 的MI300 是世界上最令人難以置信的先進(jìn)封裝形式。有超過 100 塊硅粘在一起,全部位于使用 TSMC 的 CoWoS-S 技術(shù)的破紀(jì)錄的 3.5x 光罩硅中介層之上。
這種硅的范圍從 HBM 存儲層到有源中介層以進(jìn)行計算,再到用于結(jié)構(gòu)支持的空白硅。這個巨大的中介層幾乎是 NVIDIA H100 上中介層的兩倍。MI300 的封裝工藝流程非常復(fù)雜,是行業(yè)的未來。
?
復(fù)雜的封裝需要 AMD 的重大靈活性和修改才能按時獲得 MI300。最初的設(shè)計是使用采用臺積電CoWoS-R技術(shù)的有機(jī)再分布層 (RDL) 中介層。事實上,臺積電去年確實推出了CoWoS-R測試封裝,其結(jié)構(gòu)與小米300有著驚人的相似之處??赡苡捎诰哂腥绱舜蟪叽绲挠袡C(jī)中介層的翹曲和熱穩(wěn)定性問題而改變了中介層材料。
AID 以 9um 間距與 SoIC gen 1 混合鍵合到 XCD 和 CCD。由于工藝不成熟,AMD 不得不放棄轉(zhuǎn)向TSMC 的 SoIC gen 2 的計劃,該 SoIC 的間距為 6um 。
然后將它們封裝在 CoW 無源中介層之上。通過這個過程有十幾塊支撐硅片。最終的 MI300 包含傳統(tǒng)的倒裝芯片質(zhì)量回流和 TCB 以及晶圓上的芯片、晶圓上的晶圓和晶圓上的重構(gòu)晶圓混合鍵合。
04.MI300 配置
AMD MI300 有 4 種不同的配置,但我們不確定是否所有 4 種都會真正發(fā)布。
?
MI300A 憑借異構(gòu) CPU+GPU 計算成為頭條新聞,El Capitan Exascale 超級計算機(jī)正在使用該版本。MI300A 在 72 x 75.4mm 基板上采用集成散熱器封裝,適合插槽 SH5 LGA 主板,每塊板有 4 個處理器。它有效地支付了開發(fā)成本。它已經(jīng)出貨,但真正在第三季度出現(xiàn)增長。標(biāo)準(zhǔn)服務(wù)器/節(jié)點(diǎn)將是 4 個 MI300A。
不需要主機(jī) CPU,因為它是內(nèi)置的。這是迄今為止市場上最好的 HPC 芯片,并將保持一段時間。
MI300X 是 AI hyperscaler 變體,如果成功,將成為真正的容量推動者。全是 GPU,以實現(xiàn) AI 的最佳性能。AMD這里推的服務(wù)器級配置是8顆MI300X+2顆Genoa CPU。
MI300C 將走相反的方向,成為僅具有 96 核 Zen4 + HBM 的 CPU,以響應(yīng)英特爾的 Sapphire Rapids HBM。然而,這個市場可能太小而且產(chǎn)品太貴,以至于 AMD 無法生產(chǎn)這個變體。
MI300P 就像一半大小的 MI300X。它是一種可以以較低功率進(jìn)入 PCIe 卡的產(chǎn)品。這又需要主機(jī) CPU。這將是最容易開始開發(fā)的版本,盡管我們認(rèn)為它更像是 2024 年的版本。
審核編輯:劉清
-
TSMC
+關(guān)注
關(guān)注
3文章
177瀏覽量
84457 -
TPU
+關(guān)注
關(guān)注
0文章
138瀏覽量
20698 -
USR
+關(guān)注
關(guān)注
1文章
49瀏覽量
11025 -
GPU芯片
+關(guān)注
關(guān)注
1文章
303瀏覽量
5781
原文標(biāo)題:AMD最強(qiáng)芯片,全村的希望!
文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論