精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

采用GPU求解大幅提升性能的CFD模型

jf_0T4ID6SG ? 來源:Ansys ? 作者:Steve Defibaugh ? 2022-10-17 09:56 ? 次閱讀

你可以設想一下,如果每項任務都能節省幾分鐘、幾小時甚至幾天的時間,那一整年下來能節省多少時間啊。如果任務涉及計算流體動力學(CFD)仿真,且希望減少求解時間,那么Ansys Fluent GPU求解器正是您想要的解決方案。

無論是求解10萬個單元還是1億個單元的模型,傳統的減少仿真時間的方法都是使用大量CPU進行求解。近年來,另一種方法開始受到行業的關注,那就是使用圖形處理單元,簡稱GPU。這種方法首先是將CPU求解的某些部分交給GPU來處理,從而加速整體求解時間,這種做法被稱為“轉移”到GPU。

早在2014年,Ansys Fluent就采用了這項“轉移”技術,而今年我們則將GPU技術的使用發揮到全新的高度,在Fluent中推出了原生多GPU(multi-GPU)求解器。本地部署方案能提供GPU上的所有求解器特性,避免CPU和GPU之間因交換數據造成的開銷,從而相對于轉移技術能實現更好的提速。

釋放GPU對CFD的全部潛力需要將整個代碼運行在GPU上。

在系列博客的上半部分中,我們重點介紹了大型汽車外氣動仿真的32倍提速案例,不過并非所有用戶的仿真模型能達到如此大的規模。本文作為系列內容的下半部分,將重點介紹GPU針對包含更多物理功能的小規模模型的優勢,如多孔介質和共軛傳熱(CHT)。

各種不同規模的CFD仿真提速

從51.2萬個單元到700多萬個單元,本文介紹的模型采用GPU求解都能大幅提升性能。而且無需采用最昂貴的服務器級GPU就能大幅提升性能,因為Fluent GPU求解器可以使用您的筆記本或工作站GPU就能顯著縮短求解時間。口說無憑,請繼續往下看,了解原生多GPU求解器如何實現提速:

進氣系統提速8.32倍

牽引逆變器提速8.6倍

兩種不同的換熱器設計分別提速15.47倍和11倍

通過多孔過濾器的氣流

汽車進氣系統吸入的氣體通過過濾器清除雜物,讓清潔空氣進入引擎。這個仿真涉及710萬個單元,過濾器模型為多孔介質,粘滯阻力為1e+8m-2,慣性阻力為2,500m-1。空氣流入進氣系統的質量流率為0.08kg/s。

用一個NVIDIA A100 GPU求解后,優化進氣系統可實現8.32倍的提速。

我們采用四種不同的硬件配置求解該模型,三種配置采用Intel Xeon Gold 6242核心,一種配置采用一個NVIDIA A100 Tensor Core GPU。

使用單個NVIDIA A100 GPU相對于采用32個Intel Xeon Gold核心求解而言,能提速8.3倍。

73f90214-4d6d-11ed-a3b6-dac502259ad0.png

使用單個NVIDIA A100 GPU仿真通過多孔介質的氣流相對于32個Intel Xeon Gold核心而言,能實現8.3倍的提速

使用共軛傳熱建模(CHT)進行熱管理

在許多工業應用中,考慮到流體流動時造成的熱效應至關重要。為準確捕獲系統的熱行為,流體的傳熱與相鄰金屬的熱傳導耦合往往非常重要。我們的原生GPU求解器針對這種耦合CHT問題展示出了強大的提速特性。

以下給出三種涉及CHT的不同熱仿真,一個為400萬個單元的水冷式牽引逆變器,一個為140萬個單元的百葉窗翅片換熱器,還有一個為512,000個單元的立式散熱器。

水冷式牽引逆變器

涉及CHT的牽引逆變器仿真采用一個NVIDIA A100 GPU求解,可實現8.6倍的提速。

牽引逆變器從高壓電池獲得直流電(DC),并將其轉為交流電(AC)發送給電機。熱管理對牽引逆變器確保安全性和長期使用壽命至關重要。

以上所示模型為400萬個單元的水冷式牽引逆變器,其具有4個絕緣柵雙極晶體管IGBT),熱負載為400 W。25℃的水以0.5 kg/s的速度流過外殼實現制冷,并使用對流邊界條件對周圍空氣的熱消耗進行建模。

采用一個NVIDIA A100 GPU求解問題,相對于32個Intel Xeon Gold 6242核心而言,可提速8.6倍。

百葉窗翅片換熱器

換熱器模型通過百葉窗翅片換熱器實現強制對流。這個待求解的問題涉及20℃的空氣以4 m/s的速度通過鋁制百葉窗翅片,以實現銅管制冷。

為獲得基準,我們在8個Intel Xeon Gold 6242核心上運行了140萬個單元的模型。在一個NVIDIA A100 GPU上運行完全相同的模型,可實現15.5倍的提速。

百葉窗翅片換熱器的溫度分布在一個NVIDIA A100上求解速度快15.47倍。

77f60b28-4d6d-11ed-a3b6-dac502259ad0.png

對百葉窗翅片換熱器而言,單GPU求解可實現15.47倍的提速

立式散熱器

最后一個問題涉及一個自由對流五翅片鋁制散熱器,基座保持恒溫76.85℃,周邊空氣環境溫度為16.85℃。

使用安裝有一個NVIDIA Quadro RTX 5000 GPU的一臺筆記本電腦求解包含512,000個單元的外殼,相對于采用六核Intel Core i7-11850H的筆記本電腦而言,可實現11倍的提速。

即便只采用一個NVIDIA Quadro RTX 5000筆記本顯卡GPU,使用Fluent中的原生多GPU求解器也能大幅縮短求解時間。如果采用類似的工作站圖形卡,還能進一步提高性能。

采用一個NVIDIA Quadro RTX 5000 GPU進行求解,512,000個單元的散熱器仿真能實現11倍的提速。

通過GPU實現CFD仿真變革

Fluent用戶現在能在只有一個GPU的筆記本或工作站上獲得強大功能和靈活性,當然也可以擴展至多GPU服務器上。利用您已有的硬件加速CFD仿真,獲得的提速超過您的想象。

Fluent中的原生多GPU求解器能運行在2016年之后推出的任何NVIDIA卡上,安裝的驅動程序版本不低于11.0或更新版本。

Ansys在GPU技術運用于仿真領域一直是領軍者,憑借新型求解器技術,將我們的技術水平提升到新的高度。原生GPU求解器中的所有特性都采用與Fluent CPU求解器相同的離散和數值方法,能在更短的時間內為用戶提供他們所期待的準確結果。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4702

    瀏覽量

    128709
  • 服務器
    +關注

    關注

    12

    文章

    9024

    瀏覽量

    85186
  • CFD
    CFD
    +關注

    關注

    1

    文章

    109

    瀏覽量

    18382
  • 求解器
    +關注

    關注

    0

    文章

    77

    瀏覽量

    4515

原文標題:Ansys Fluent:全力釋放GPU的無限潛力(下)

文章出處:【微信號:西莫電機論壇,微信公眾號:西莫電機論壇】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    《算力芯片 高性能 CPUGPUNPU 微架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優化的思考。 GPU的存儲體系采用了獨特的倒金字塔結構,在我看來這是其計算性能的關鍵。大容量寄存器設計破解了傳統馮諾依曼架構的內存瓶頸,合并訪存機制巧妙解決了內存帶寬限制。NVIDIA
    發表于 11-24 17:12

    PyTorch GPU 加速訓練模型方法

    在深度學習領域,GPU加速訓練模型已經成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解
    的頭像 發表于 11-05 17:43 ?454次閱讀

    如何提高GPU性能

    在當今這個視覺至上的時代,GPU(圖形處理單元)的性能對于游戲玩家、圖形設計師、視頻編輯者以及任何需要進行高強度圖形處理的用戶來說至關重要。GPU不僅是游戲和多媒體應用的心臟,它還在科學計算、深度
    的頭像 發表于 10-27 11:21 ?216次閱讀

    為什么ai模型訓練要用gpu

    GPU憑借其強大的并行處理能力和高效的內存系統,已成為AI模型訓練不可或缺的重要工具。
    的頭像 發表于 10-24 09:39 ?194次閱讀

    GPU性能服務器配置

    GPU性能服務器作為提升計算速度和效率的關鍵設備,在各大應用場景中發揮著越來越重要的作用。在此,petacloud.ai小編為你介紹GPU性能
    的頭像 發表于 10-21 10:42 ?157次閱讀

    模型發展下,國產GPU的機會和挑戰

    電子發燒友網站提供《大模型發展下,國產GPU的機會和挑戰.pdf》資料免費下載
    發表于 07-18 15:44 ?7次下載
    大<b class='flag-5'>模型</b>發展下,國產<b class='flag-5'>GPU</b>的機會和挑戰

    RaftKeeper v2.1.0版本發布,性能大幅提升!

    新特性,包括異步創建 snapshot。該版本的最大亮點在于性能優化:寫請求性能提升 11%, 讀寫混合場景更是大幅提升了 118% 。本文
    的頭像 發表于 07-15 15:10 ?300次閱讀
    RaftKeeper v2.1.0版本發布,<b class='flag-5'>性能</b><b class='flag-5'>大幅</b><b class='flag-5'>提升</b>!

    摩爾線程與智譜AI完成大模型性能測試與適配

    近日,摩爾線程與智譜AI在人工智能領域開展了一輪深入的合作,共同對GPU模型進行了適配及性能測試。此次測試不僅涵蓋了大模型的推理能力,還涉及了基于摩爾線程夸娥(KUAE)千卡智算集群
    的頭像 發表于 06-14 16:40 ?1014次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    人工智能模型在規模和復雜性上呈指數級增長,對先進計算能力和內存容量的需求變得至關重要。Blackwell圖形處理器架構通過在性能和效率方面實現大幅躍升,解決了這些需求。 HGX B200 訓練
    發表于 05-13 17:16

    模型時代,國產GPU面臨哪些挑戰

    電子發燒友網報道(文/李彎彎)隨著人工智能技術的快速發展,對GPU計算能力的需求也越來越高。國內企業也正在不斷提升GPU性能,以滿足日益增長的應用需求。然而,相較于國際巨頭,國內
    的頭像 發表于 04-03 01:08 ?4604次閱讀
    大<b class='flag-5'>模型</b>時代,國產<b class='flag-5'>GPU</b>面臨哪些挑戰

    國產GPU在AI大模型領域的應用案例一覽

    電子發燒友網報道(文/李彎彎)近一年多時間,隨著大模型的發展,GPU在AI領域的重要性再次凸顯。雖然相比英偉達等國際大廠,國產GPU起步較晚、聲勢較小。不過近幾年,國內不少GPU廠商成
    的頭像 發表于 04-01 09:28 ?3685次閱讀
    國產<b class='flag-5'>GPU</b>在AI大<b class='flag-5'>模型</b>領域的應用案例一覽

    FPGA在深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發表于 03-21 15:19

    英偉達發布性能大幅提升的新款B200 AI GPU

    英偉達宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構成的服務器集群相比上一代,運算能力飛躍性提升,甚至能使大語言模型的訓練速度翻番。
    的頭像 發表于 03-20 09:37 ?742次閱讀

    英偉達H200性能怎么樣

    英偉達H200性能卓越,集成了高性能CPU和GPU,通過高速NVLink連接,消除了傳統計算瓶頸。其配備了高達141GB的HBM3e高帶寬內存,大幅
    的頭像 發表于 03-07 16:39 ?957次閱讀

    揭秘GPU: 高端GPU架構設計的挑戰

    在計算領域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設計充滿了挑戰。GPU的架構創新,為軟件承接大模型訓練和推理場
    的頭像 發表于 12-21 08:28 ?857次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b>架構設計的挑戰