在AI算力、算法和數據人工智能行業三要素中,AI算力更是重中之重,業界廠商通過對各類AI硬件不斷迭代為算力狂飆的需求提供強有力保障。自ChatGPTAI、GPT-4模型發布火爆出圈后,在引發了普羅大眾對AI大模型熱情的同時,也引燃了AI算力的戰火。全球科技巨頭紛紛發布AI大模型、AI訓練卡產品都是入場者爭奪AI制高點的戰爭縮影。
1、AI異構計算三分天下,GPU表現異常亮眼
眾所周知,人工智能(尤其是大模型新興應用領域)對AI算力需求超過了通用CPU的摩爾定律的發展速度,而異構計算的性能增長恰恰能夠滿足這些新興領域的算力需求發展方向和趨勢。異構計算領域,目前呈現出GPU、FPGA、ASIC芯片三分天下的局面,GPU、FPGA、ASIC芯片都會有自己獨特的技術特長和應用領域,有自己獨特的客戶群體。
ASIC芯片可以獲得最優性能,即面積利用率高、速度快、功耗低;但AISC開發風險極大,算法是固定,而且從研發到市場的時間周期很長,不適合例如深度學習快速迭代的領域。大多是具備AI算法又擅長芯片研發的巨頭參與,如 Google 的TPU。 FPGA稱為現場可編程門陣列,用戶可以根據自身的需求進行重復編程,相比之下,具有可硬件編程的特點,靈活性好;但基本單元的計算能力有限,速度和功耗存在不足。FPGA 在工業互聯網領域、工業機器人設備領域應用前景十分巨大。 GPU具備高效的并行性、高密集的運算、超長流水線,以及成熟生態,最先被引入深度學習;GPU針對不同應用領域的需求,增加了專用向量、張量、矩陣運算指令,提升浮點運算精度和性能,以滿足天氣預報、工業設計、基因工程、藥物發現、金融工程、自動駕駛等不同計算場景的需求。 綜合考慮性能、能效比和編程靈活性等因素,GPU明顯優于ASIC、FPGA等芯片,并成為目前AI加速服務器的最主流選擇。 目前,英偉達和AMD是目前全球GPU的領軍企業,兩家合計獲取了全球GPU絕大部分市場份額。國內海光信息、寒武紀等公司的GPU產品已經實現規?;N售。 全球來看,英偉達的H100及A100、AMD的MI100及MI200等均為主流的GPGPU產品型號。據IDC數據顯示,2021年GPU服務器份額占國內AI加速服務器市場的88.4%,2021-2025年間年復合增速為19.1%。據Jon Peddie Research數據顯示2022Q1英偉達占據79%市場份額,AMD占據21%。英偉達在獨立GPU領域一枝獨秀。
在中國市場上,根據IDC數據,2021年英偉達占國內AI加速卡80%以上市場份額,2015-2021年間年復合增速高達77.4%,處于市場領先地位。
2、英偉達中國版GPU限制及可供應性風險
無論在HPC高性能計算,科學研發領域,還是人工智能大模型場景,尤其是對算力要求的比較高Training(訓練)環節,AMD的MI 100、MI 200以及Nvidia的A100,H100都是GPU領域的超強算力芯片,極其普遍的應用在AI服務器中實現加速計算,提供計算精度,減少訓練周期。 NVIDIA A100、H100等加速計算卡的需求過于火爆,即便在臺積電增加了大量的訂單,緊急提升產能,依然無法滿足。但在中國市場上,由于美國的禁令,NVIDIA基于中市場策略定制了特供版A800、H800。那么,中國特供版A800和H800與A100和H100的具體差距?主要差距是互聯后整體集群帶寬的下降。A800的互聯帶寬從A100的600GB/s下降到400GB/s,H800的互聯帶寬從H100的900GB/s下降到450GB/s。本身單卡的算力不變,但是集群卡間互聯的帶寬限制整個集群的算力規模,從而限制了集群性能,相當于限制了AI模型訓練精度以及中國AI技術發展。
即便如此,NVIDIA特供版A800、H800發布也是異常搶手,在國內大型互聯網企業在采購潮的推動下,漲價幅度已經超過40%。在如此大模型高算力市場需求下,依靠國外GPU技術發展AI技術本身就是偽命題,如同沙灘筑高樓;同時,在可供應性和技術演進上成了極大風險。
3、國內GPU廠商概述及國產化應對策略
美國對中國GPU等芯片的“卡脖子”制裁也給國內產品替代英偉達帶來非常大的機會。國產AI芯片廠商持續發力,對標行業龍頭已縮小差距。在AI加速和高性能計算領域,國內主要有GPGPU和NPU兩條技術路徑;GPGPU技術沉淀深、生態兼容廣,NPU發展迅速,但算力供給單一性和生態壁壘比較難打破,兩條路徑都得到相應廠商的支持和發展,在特定領域性能都達到業界一流水平。
相較而言,GPGPU路線更加符合AI算力發展需求,更具潛力。GPGPU也叫做通用GPU,優勢在于具備大規模并行計算的能力,可快速開發高能效的應用程序,在產品性能、通用性、易用性等方面優勢明顯,全球9成以上商用AI系統的選擇GPGPU架構芯片,在訓練負載方面更是如此。而且,當前AI應用基本全都建立在GPGPU架構的軟件開發平臺上,生態體系更加完善,好用,易用。AI技術發展日新月異,AI軟件開發者通過在GPGPU平臺開發,能夠更好的提高生產力。
ASIC架構,優勢在于根據產品的需求,進行特定設計和制造的集成電路,因此計算速度快,能耗更低。它的出現存在一個理論前提,即算法發展相對成熟,已發現最優算法,通過將軟件固化到硬件執行,以實現最優效率。由于當前AI算法、模型快速迭代發展,ASIC架構需要投入大量的資金,以及經歷較長的研發和工程周期,容易出現量產即落后的局面。另外,國際上還有基于FPGA架構開發AI芯片,雖然可根據自身需求進行重復編程,但缺點在于頻率較低,單元計算能力有限,價格昂貴。而且,基于FPGA的AI應用開發,需要軟件工程師同時具備軟件、硬件能力,開發難度較大;并且目前FPGA被國外巨頭壟斷,因此很少有FPGA架構的國產AI芯片。
相對于ASIC與FPGA而言,國內對GPGPU芯片其實需求更為迫切。大模型預訓練面臨著計算資源需求、數據集規模、訓練時間和效率、參數調優和模型調整、以及泛化能力和適應性等多個難題。應對這些難題需要綜合考慮硬件資源、數據管理、算法設計等多方面因素。因此,算力領先、軟件完善的 GPGPU成為先進大模型的首選算力來源。而且,隨著AI應用向多模態進一步發展,通用性更優的GPGPU可以更好的支持這類應用發展
另外,國內對GPGPU芯片的需求不止于芯片可提供多少算力,是否能滿足應用場景所需的計算精度也同樣重要。原因在于,AI應用視場景不同,需要算力精度不同。例如AICG領域對圖像和語音的處理,用32位、16位計算精度即可;而部分科學計算,則需要用到FP64雙精度浮點運算,才可保證模型訓練和預測結果的準確性??偠灾珹I算力的全面發展,需要全精度、通用性強的GPGPU芯片支撐。
當前,國內AI芯片廠商數量約在6000+家,其中主流廠商數量約60余家,主要分為三個梯隊,第一梯隊包括海光、華為、寒武紀等。劃分原因在于,第一梯隊廠商有成熟產品,且已有商業化量產規模的應用。
海光:DCU產品深算系列,兼容通用的“類 CUDA”環境以及國際主流商業計算軟件和人工智能軟件,對標主流 NVIDIA A100 產品,海光 DCU 單芯片產品基本能達到與其相近的性能水平。并且,海光DCU深算一號,國內唯一能支持全部算力精度,可以滿足需要更高精度的數學計算的需要。GPGPU架構,讓其通用性更強,海光DCU產品在AI計算、大數據處理、商業計算等領域發揮著重要作用。
華為昇騰:產品包括昇騰310、910,自研達芬奇架構實現較低功耗和較好散熱,可在華為龐大的AI軟件工程師支持下,通過運行華為的全棧軟硬件平臺,并且深度適配、遷移和優化,可以應用于云邊端全場景覆蓋,目前已形成較為完善的生態。
寒武紀:產品主要由云端芯片與邊緣芯片等組成,產品體系豐富,適配AI應用及各類算法,產品的能效較好,并掌握了智能芯片架構、編譯器、工具鏈等核心技術。但因為AISC架構芯片的天然劣勢,使得寒武紀產品在實際應用中需要大量資金、人才投入,落地部署困難重重,實際應用限制多多。
第二梯隊包括,燧原、昆侖芯、天數、壁仞、沐曦等近幾年成立的初創企業。這幾家廠商雖然發布了產品,但由于AI芯片產品化、復雜度等原因,在實際應用中進展有限,或開始在某些領域局部試水,或者還在努力建設軟件生態,集群部署方案等。
第三梯隊包括龍芯、景嘉微等,這兩家廠商有意向進軍AI計算領域,但尚無AI芯片量產。龍芯作為國產CPU領域的主流廠商,5月份宣布集成龍芯自研GPGPU的第一款AI計算芯片,預計將于 2024 年一季度流片。而景嘉微作為國內最早投入GPU研發的廠商之一,近期也宣布募資42億元投入高性能GPGPU芯片研發及產業化項目。這兩家廠商作為國內計算芯片代表廠商,如今在布局AI計算芯片研發,終于邁出了第一步。
4、總結
AI大模型催生GPU市場需求劇增,在嚴峻的國際形勢下,GPU的國產替代進程刻不容緩,海光信息深算一號已基本具備英偉達高端 GPU的技術能力,在緊張的局勢背景下,未來有望推動高端GPU國產替代進程。
在特定AI應用領域(尤其是GPU圖形計算和AI推理領域),國內GPU廠商從技術到生態都具備一定積累,隨著產品不斷迭代更新,以及在AI訓練領域持續發力,未來在爭奪AI制高點的戰爭中發光發熱,從而緩解“卡脖子”問題和供應風險。
-
gpu
+關注
關注
27文章
4591瀏覽量
128147 -
人工智能
+關注
關注
1787文章
46061瀏覽量
235043 -
算力
+關注
關注
1文章
836瀏覽量
14574 -
大模型
+關注
關注
2文章
2136瀏覽量
1982
原文標題:大模型AI算力劇增,誰來扛國產GPU大旗?
文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論