英偉達(dá)在3月18日GTC 2024年盛會(huì)上推出了搭載自家創(chuàng)新結(jié)構(gòu)Blackwell的B200 GPU芯片,選用了臺(tái)積電最先進(jìn)的N4P制程工藝,性能較之前翻番。然而,Meta公司在次日披露稱,預(yù)計(jì)今年無(wú)法獲得這款最新的AI芯片,至少在2025年后才能用上。
英偉達(dá)宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構(gòu)成的服務(wù)器集群相比上一代,運(yùn)算能力飛躍性提升,甚至能使大語(yǔ)言模型的訓(xùn)練速度翻番。
財(cái)務(wù)長(zhǎng)科萊特?克雷斯于同日向財(cái)經(jīng)分析人士保證,“我們確信新款GPU產(chǎn)品將在今年內(nèi)面世。”新款GPU的規(guī)模生產(chǎn)預(yù)計(jì)需等到2025年。
臉書(shū)(即Meta)作為英偉達(dá)的主要買家之一,已經(jīng)購(gòu)買了數(shù)十萬(wàn)塊英偉達(dá)AI芯片,用以訓(xùn)練生成式AI和強(qiáng)化內(nèi)容推薦功能。首席執(zhí)行官馬克?扎克伯格曾在年初表示,今年底將擁有約35萬(wàn)個(gè)H100芯片。這些芯片與其他型號(hào)GPU結(jié)合使用,總共將提供60萬(wàn)個(gè)H100所代表的運(yùn)算力。
在英偉達(dá)發(fā)布B200后不久,Meta宣布將利用該芯片訓(xùn)練公司的LIama大型模型。據(jù)悉,Meta正在動(dòng)用兩個(gè)包含約2.4萬(wàn)個(gè)H100GPU的GPU集群來(lái)訓(xùn)練第三代LIama模型。Meta公司發(fā)言人表示,他們打算繼續(xù)使用這兩座集群訓(xùn)練LIama 3,并期待未來(lái)用Blackwell硬件訓(xùn)練更多世代的大型模型。
-
服務(wù)器
+關(guān)注
關(guān)注
12文章
9029瀏覽量
85207 -
語(yǔ)言模型
+關(guān)注
關(guān)注
0文章
508瀏覽量
10247 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3749瀏覽量
90861
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論