精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI初出企業(yè)Cerebras已申請(qǐng)IPO!稱發(fā)布的AI芯片比GPU更適合大模型訓(xùn)練

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-06-26 00:09 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,據(jù)外媒報(bào)道,研發(fā)出世界最大芯片的明星AI芯片獨(dú)角獸Cerebras Systems已向證券監(jiān)管機(jī)構(gòu)秘密申請(qǐng)IPO。

Cerebras成立于2016年,總部在美國加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級(jí)芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級(jí)計(jì)算機(jī)?;谄?a href="http://www.nxhydt.com/article/zt/" target="_blank">最新旗艦芯片構(gòu)建的服務(wù)器可輕松高效地訓(xùn)練萬億參數(shù)模型。

Cerebras已發(fā)布第三代AI芯片

技術(shù)實(shí)力方面,Cerebras公司采用獨(dú)特的晶圓級(jí)集成技術(shù),將整片晶圓作為一個(gè)單獨(dú)的芯片來使用,實(shí)現(xiàn)了前所未有的集成度和性能。這種技術(shù)使得Cerebras的AI芯片在晶體管數(shù)量、計(jì)算能力和內(nèi)存帶寬等方面均達(dá)到了業(yè)界領(lǐng)先水平。

Cerebras的AI芯片具有強(qiáng)大的計(jì)算能力,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)數(shù)十萬億個(gè)的模型。這種高性能計(jì)算能力使得研究人員能夠更快地測(cè)試想法、使用更多數(shù)據(jù)并解決新問題。

Cerebras的AI芯片采用了先進(jìn)的通信架構(gòu),實(shí)現(xiàn)了全局性的低延遲、高帶寬通信。這種通信架構(gòu)使得多個(gè)Cerebras芯片之間能夠高效地進(jìn)行數(shù)據(jù)傳輸和協(xié)作,進(jìn)一步提升了AI應(yīng)用的性能。

產(chǎn)品方面,Cerebras的核心產(chǎn)品線WSE(Wafer Scale Engine)系列已經(jīng)過更新三代。2019年8月,Cerebras發(fā)布第一顆芯片WSE,WSE作為Cerebras標(biāo)志性產(chǎn)品,是史上最大的AI芯片之一。其設(shè)計(jì)突破了傳統(tǒng)半導(dǎo)體制造的界限,采用了獨(dú)特的晶圓級(jí)集成(Wafer-Scale Integration, WSI)技術(shù),將整個(gè)晶圓作為一個(gè)單獨(dú)的芯片來使用,這在當(dāng)時(shí)是前所未有的。

這顆芯片采用臺(tái)積電16nm制程,在46225mm2面積上集成了40萬個(gè)AI核心和1.2萬億顆晶體管。同時(shí),該芯片配備了18GB的片上靜態(tài)隨機(jī)存取存儲(chǔ)器(SRAM),這一容量遠(yuǎn)大于大多數(shù)芯片的片外存儲(chǔ)(DDR)。帶寬達(dá)到100Pb/s(1Pb=1000TB),這一數(shù)值比現(xiàn)有芯片的相關(guān)參數(shù)高出一個(gè)單位(3個(gè)數(shù)量級(jí))。

2021年,Cerebras推出第二代芯片WSE-2,搭載WSE-2芯片的AI超算系統(tǒng)CS-2也同期發(fā)布。WSE-2在繼承了WSE的晶圓級(jí)集成技術(shù)的基礎(chǔ)上,進(jìn)一步提升了制程工藝和性能,成為當(dāng)時(shí)業(yè)界領(lǐng)先的AI芯片之一。該芯片采用臺(tái)積電7nm制程,相較于前代產(chǎn)品WSE的16nm工藝,進(jìn)一步縮小了晶體管的尺寸,提高了集成度。與WSE相同,WSE-2也采用了整片晶圓作為單一芯片,面積約為462255mm2。晶體管數(shù)量達(dá)到了創(chuàng)紀(jì)錄的2.6萬億個(gè),相較于WSE的1.2萬億個(gè)晶體管,實(shí)現(xiàn)了翻倍的增長。

WSE-2集成了85萬個(gè)專為AI應(yīng)用優(yōu)化的稀疏線性代數(shù)計(jì)算(SLAC)核心,相較于WSE的40萬個(gè)核心,有了顯著的提升。片上內(nèi)存提升至40GB,相較于WSE的18GB,增加了近一倍。內(nèi)存帶寬高達(dá)20PB/s,相較于WSE的9PB/s,也有了顯著的提升。

今年3月,Cerebras推出了第三代晶圓級(jí)芯片WSE-3和AI超級(jí)計(jì)算機(jī)CS-3。WSE-3采用臺(tái)積電5nm制程,有90萬個(gè)AI核心和4萬億顆晶體管。配備了44GB的片上SRAM緩存,相較于前代產(chǎn)品有了顯著提升。這一大容量片上內(nèi)存能夠支持更大規(guī)模的AI模型訓(xùn)練,無需進(jìn)行分區(qū)或重構(gòu),大大簡(jiǎn)化了訓(xùn)練工作流程。WSE-3的內(nèi)存帶寬高達(dá)21PB/s,峰值A(chǔ)I算力高達(dá)125 PetaFLOPS,相當(dāng)于每秒能夠執(zhí)行12.5億億次浮點(diǎn)計(jì)算。

Cerebras 的AI芯片被認(rèn)為更適合大模型訓(xùn)練

Cerebras的芯片被認(rèn)為比GPU更適合用于大模型訓(xùn)練。其WSE系列芯片具有龐大的規(guī)模和驚人的性能。例如,WSE-3擁有超過4萬億個(gè)晶體管和46225mm2的硅片面積,堪稱全球最大的AI芯片。與之相比,傳統(tǒng)GPU的規(guī)模和性能通常較小。Cerebras的芯片能夠在單個(gè)設(shè)備上容納和訓(xùn)練比當(dāng)前熱門模型大得多的下一代前沿模型。

Cerebras的芯片搭載了大量的核心和內(nèi)存。例如,WSE-3擁有900,000個(gè)核心和44GB內(nèi)存,這使得它能夠同時(shí)處理大量的數(shù)據(jù)和計(jì)算任務(wù)。傳統(tǒng)GPU的核心數(shù)量和內(nèi)存通常較小,可能需要多個(gè)GPU協(xié)同工作才能達(dá)到類似的性能。

Cerebras采用了片上內(nèi)存的設(shè)計(jì),這意味著內(nèi)存和計(jì)算核心都在同一個(gè)芯片上,從而大大減少了數(shù)據(jù)傳輸?shù)拈_銷和延遲。相比之下,傳統(tǒng)GPU的內(nèi)存和計(jì)算核心是分離的,需要通過PCIe等接口進(jìn)行數(shù)據(jù)傳輸,這可能導(dǎo)致性能瓶頸和延遲。

Cerebras的CS-3系統(tǒng)是基于WSE-3推出的,具備強(qiáng)大的系統(tǒng)支持。該系統(tǒng)擁有高達(dá)1.2PB的內(nèi)存容量,能夠訓(xùn)練比GPT-4和Gemini模型大10倍的下一代前沿模型。在大模型訓(xùn)練中,Cerebras的CS-3系統(tǒng)相較于GPU具有更低的代碼復(fù)雜性和更高的易用性。開發(fā)人員可以更加高效地實(shí)現(xiàn)和訓(xùn)練大模型。

Cerebras的芯片通過保持整個(gè)晶圓的完整性來降低互連和網(wǎng)絡(luò)成本以及功耗。這使得Cerebras的芯片在功耗和成本方面相較于多個(gè)GPU協(xié)同工作具有優(yōu)勢(shì)。

今年4月,Cerebras發(fā)文比較Cerebras CS-3與英偉達(dá)B200,稱CS-3和英偉達(dá)DGX B200是2024年上市的兩款最令人興奮的AI硬件新品。從對(duì)比數(shù)據(jù)來看,無論AI訓(xùn)練性能還是能效,CS-3都做到倍殺DGX B200。

wKgZomZ6l4uAM3yGAAHe43y7_Gk033.png

寫在最后

目前,AI大模型訓(xùn)練基本離不開GPU的支持,Cerebras發(fā)布的WSE系列芯片,給業(yè)界帶來了新的思路,尤其是其今年發(fā)布的第三代產(chǎn)品WSE-3,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)24萬億個(gè)的模型。如果其能夠順利上市,一是對(duì)于其自身后續(xù)發(fā)展更有利,二是對(duì)于英偉達(dá)來說它可能會(huì)成長為一個(gè)較大的競(jìng)爭(zhēng)對(duì)手。







聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4557

    瀏覽量

    127970
  • ipo
    ipo
    +關(guān)注

    關(guān)注

    1

    文章

    1144

    瀏覽量

    32374
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1807

    瀏覽量

    34584
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2053

    瀏覽量

    1771
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    蘋果AI模型訓(xùn)練新動(dòng)向:攜手谷歌,未選英偉達(dá)

    近日,蘋果公司發(fā)布的最新研究報(bào)告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計(jì)的芯片訓(xùn)練AI模型,而非行業(yè)巨頭英偉達(dá)的產(chǎn)品。這
    的頭像 發(fā)表于 08-01 18:11 ?769次閱讀

    蘋果承認(rèn)使用谷歌芯片訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進(jìn)的人工智能系統(tǒng)Apple Intelligence背后的兩個(gè)關(guān)鍵AI模型,是在谷歌設(shè)計(jì)的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端
    的頭像 發(fā)表于 07-30 17:03 ?543次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計(jì)算資源來進(jìn)行訓(xùn)練AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?3.7w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    AI模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI模型通常需要大量的數(shù)
    的頭像 發(fā)表于 07-16 10:06 ?402次閱讀

    AI初創(chuàng)公司Cerebras秘密申請(qǐng)IPO

    近日,全球科技圈再次掀起波瀾。據(jù)外媒最新報(bào)道,被譽(yù)為明星AI芯片獨(dú)角獸的Cerebras Systems,已經(jīng)悄然向證券監(jiān)管機(jī)構(gòu)遞交了首次公開募股(IPO)的秘密
    的頭像 發(fā)表于 06-27 17:44 ?552次閱讀

    摩爾線程與師者AI攜手完成70億參數(shù)教育AI模型訓(xùn)練測(cè)試

    近日,國內(nèi)知名的GPU制造商摩爾線程與全學(xué)科教育AI模型“師者AI”聯(lián)合宣布,雙方已成功完成了一項(xiàng)重要的大模型
    的頭像 發(fā)表于 06-14 16:31 ?402次閱讀

    AI訓(xùn)練,為什么需要GPU?

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI模型訓(xùn)練平臺(tái)的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    國產(chǎn)GPUAI模型領(lǐng)域的應(yīng)用案例一覽

    不斷推出新品,產(chǎn)品也逐漸在各個(gè)領(lǐng)域取得應(yīng)用,而且在大模型訓(xùn)練和推理方面,也有所建樹。 ? 國產(chǎn)GPU在大模型上的應(yīng)用進(jìn)展 ? 電子發(fā)燒友此前就統(tǒng)計(jì)過目前國內(nèi)主要的
    的頭像 發(fā)表于 04-01 09:28 ?3283次閱讀
    國產(chǎn)<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領(lǐng)域的應(yīng)用案例一覽

    Cerebras推出性能翻倍的WSE-3 AI芯片

    Cerebras Systems近日推出的Wafer Scale Engine 3(WSE-3)芯片無疑在人工智能領(lǐng)域掀起了一場(chǎng)革命。這款芯片不僅刷新了現(xiàn)有最快AI
    的頭像 發(fā)表于 03-20 11:32 ?665次閱讀

    最強(qiáng)AI芯片發(fā)布,Cerebras推出性能翻倍的WSE-3 AI芯片

    近日,芯片行業(yè)的領(lǐng)軍企業(yè)Cerebras Systems宣布推出其革命性的產(chǎn)品——Wafer Scale Engine 3,該產(chǎn)品成功將現(xiàn)有最快AI
    的頭像 發(fā)表于 03-19 09:31 ?834次閱讀
    最強(qiáng)<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>發(fā)布</b>,<b class='flag-5'>Cerebras</b>推出性能翻倍的WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    Cerebras推出WSE-3 AI芯片,NVIDIA H100大56倍

    Cerebras 是一家位于美國加利福尼亞州的初創(chuàng)公司,2019 年進(jìn)入硬件市場(chǎng),其首款超大人工智能芯片名為 Wafer Scale Engine (WSE) ,尺寸為 8 英寸 x 8 英寸,最大的
    的頭像 發(fā)表于 03-14 17:11 ?1596次閱讀
    <b class='flag-5'>Cerebras</b>推出WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,<b class='flag-5'>比</b>NVIDIA H100大56倍

    AI模型怎么解決芯片過剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    微軟發(fā)布自研AI芯片!

    微軟的Azure Maia AI芯片和Arm架構(gòu)Azure Cobalt CPU將于2024年上市。今年,英偉達(dá)的H100 GPU需求激增,這些處理器被廣泛用于訓(xùn)練和運(yùn)行生成圖像工具和
    的頭像 發(fā)表于 11-16 14:13 ?661次閱讀

    【KV260視覺入門套件試用體驗(yàn)】Vitis AI 構(gòu)建開發(fā)環(huán)境,并使用inspector檢查模型

    量化 七、Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型 八、Vitis AI 將自定義模型編譯并部署到KV260中 鋪墊 Vitis
    發(fā)表于 10-14 15:34

    阿里平頭哥發(fā)布首個(gè) RISC-V AI 軟硬全棧平臺(tái)

    HHB 實(shí)現(xiàn)了在典型網(wǎng)絡(luò)性能第三方工具平均提升 88%,并增加支持運(yùn)行 Transformer、TensorFlow、PyTorch 等 170 余個(gè)主流框架 AI 模型。 基于此,平頭哥
    發(fā)表于 08-26 14:14