精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GPU深度學習面臨的挑戰分析

我快閉嘴 ? 來源:AI前線 ? 作者:Ben Dickson ? 2020-12-11 15:02 ? 次閱讀

人工智能的興起觸發了市場對 GPU 的大量需求,但 GPU 在 AI 場景中的應用面臨使用壽命短、使用成本高等問題。現場可編程門陣列 (FPGA) 這一可以定制化硬件處理器反倒是更好的解決方案。隨著可編程性等問題在 FPGA 上的解決,FPGA 將成為市場人工智能應用的選擇。

在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD公司的股價也大幅上漲,因為事實表明,它們的 GPU 在訓練和運行 深度學習模型 方面效果明顯。實際上,英偉達也已經對自己的業務進行了轉型,之前它是一家純粹做 GPU 和游戲的公司,現在除了作為一家云 GPU 服務提供商外,英偉達還成立了專業的人工智能研究實驗室。

不過,機器學習軟件公司 Mipsology 的首席執行官兼聯合創始人盧多維奇?拉祖爾 (Ludovic Larzul) 表示,GPU 還存在著一些缺陷,這使其在 AI 應用中面臨著一些挑戰。

Larzul 表示,想要解決這些問題的解決方案便是實現現場可編程門陣列 (FPGA),這也是他們公司的研究領域。FPGA 是一種處理器,可以在制造后定制,這使得它比一般處理器更高效。但是,很難對 FPGA 進行編程,Larzul 希望通過自己公司開發的新平臺解決這個問題。

專業的人工智能硬件已經成為了一個獨立的產業,但對于什么是深度學習算法的最佳基礎設施,人們仍然沒有定論。如果 Mipsology 成功完成了研究實驗,許多正受 GPU 折磨的 AI 開發者將從中受益。

GPU 深度學習面臨的挑戰

三維圖形是 GPU 擁有如此大的內存和計算能力的根本原因,它與 深度神經網絡 有一個共同之處:都需要進行大量矩陣運算。

顯卡可以并行執行矩陣運算,極大地加快計算速度。圖形處理器可以把訓練神經網絡的時間從幾天、幾周縮短到幾小時、幾分鐘。

隨著圖形硬件公司供貨的不斷增加,GPU 在深度學習中的市場需求還催生了大量公共云服務,這些服務為深度學習項目提供強大的 GPU 虛擬機。

但是顯卡也受硬件和環境的限制。Larzul 解釋說:“神經網絡訓練通常是在一個確定的環境中進行的,運行神經網絡的系統會在部署中遇到各種限制——這可能會對 GPU 的實際使用造成壓力。”

GPU 需要大量的電力,會產生大量的熱量,并需要使用風扇冷卻。當你在臺式工作站、筆記本電腦或機架式服務器上訓練神經網絡時,這不是什么大問題。但是,許多部署深度學習模型的環境對 GPU 并不友好,比如自動駕駛汽車、工廠、機器人和許多智慧城市環境,在這些環境中硬件必須忍受熱、灰塵、濕度、運動和電力限制等環境因素。

Larzul 說:“在一些關鍵的應用場景中,比如智慧城市的視頻監控,要求硬件暴露在對 GPU 有不利影響的環境因素 (比如太陽) 下。“ GPU 受晶體管技術的限制,導致它們在高溫下運行時需要及時冷卻,而這并不總是可以實現的。要做到這點需要更多的電力、維護成本等。”

使用壽命也是一個問題。一般來說,GPU 的使用 壽命約為 2-5 年,這對那些每隔幾年就換一次電腦的玩家來說不是什么大問題。但在其他領域,如汽車行業,需要硬件有更高的耐用性,這就帶來了問題。特別是過多的暴露在惡劣的環境中,再加上高強度的使用,GPU 的使用壽命將會更短。

Larzul 說:“從商業可行性方面考慮,自動駕駛汽車等應用可能需要多達 7-10 個 GPU(其中大多數會在不到四年的時間內失效),對于大多數購車者來說,智能或自動駕駛汽車的成本將變得不切實際。”

機器人、醫療保健和安全系統等其他行業也面臨著類似的挑戰。

FPGA 和深度學習

FPGA 是可定制的硬件設備,可對其組件進行調節,因此可以針對特定類型的架構 (如 卷積神經網絡) 進行優化。其可定制性特征降低了對電力的需求,并在運算速度和吞吐量方面提供了更高的性能。它們的使用壽命也更長,大約是 GPU 的 2-5 倍,并且對惡劣環境和其它特殊環境因素有更強的適應性。

有一些公司已經在他們的人工智能產品中使用了 FPGA。微軟 就是其中一家,它將基于 FPGA 的機器學習技術作為其 Azure 云服務產品的一部分來提供。

不過 FPGA 的缺陷是難于編程。配置 FPGA 需要具備硬件描述語言 (如 Verilog 或 VHDL) 的知識和專業技能。機器學習程序是用 Python 或 C 等高級語言編寫的,將其邏輯轉換為 FPGA 指令非常困難。在 FPGA 上運行 TensorFlow、PyTorch、Caffe 和其他框架建模的神經網絡通常需要消耗大量的人力時間和精力。

“要對 FPGA 進行編程,你需要組建一支懂得如何開發 FPGA 的硬件工程師團隊,并聘請一位了解神經網絡的優秀架構師,花費幾年時間去開發一個硬件模型,最終編譯運行在 FPGA 上,與此同時你還需要處理 FPGA 使用效率和使用頻率的問題。“Larzul 說。此外你還需要具備廣泛的數學技能,以較低的精度準確地計算模型,并需要一個軟件團隊將 AI 框架模型映射到硬件架構。

Larzul 的公司 Mipsology 希望通過 Zebra 來彌合這一差距。Zebra 是一種軟件平臺,開發者可以輕松地將深度學習代碼移植到 FPGA 硬件上。

Larzul 說:“我們提供了一個軟件抽象層,它隱藏了通常需要高級 FPGA 專業知識的復雜性。”“只需加載 Zebra,輸入一個 Linux 命令,Zebra 就可以工作了——它不需要編譯,不需要對神經網絡進行任何更改,也不需要學習任何新工具。不過你可以保留你的 GPU 用于訓練。”

AI 硬件前景

Mipsology 的 Zebra 平臺是開發者探索在 AI 項目中使用 FPGA 的 眾多方案之一。Xilinx 是 FPGA 領域的領導者,已經開發了 Zebra 并將其集成到了電路板中。其他公司,如谷歌和特斯拉,也正積極的為其開發專用的 AI 硬件,用于自己的云產品和邊緣計算產品環境中。

神經形態芯片 方面也有著一些發展,這是一種專門為神經網絡設計的計算機架構。英特爾在神經形態計算領域處于領先地位,已經開發了幾種模型架構,不過該領域仍處于早期發展階段。

還有專門用于特定應用的集成電路ASIC),即專為某一特定人工智能需求制造的芯片。但 ASIC 缺乏 FPGA 的靈活性,無法重新編程。

Larzul 最后說,“我們決定專注于軟件業務,探索研究提升神經網絡性能和降低延遲的方案。Zebra 運行在 FPGA 上,因此無需更換硬件就可以支持 AI 推理。FPGA 固件的每次刷新都能給我們帶來更高的性能提升,這得益于其高效性和較短的開發周期。另外,FPGA 的可選擇方案很多,具有很好的市場適應性。”
責任編輯:tzh

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1626

    文章

    21668

    瀏覽量

    601864
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4701

    瀏覽量

    128708
  • 人工智能
    +關注

    關注

    1791

    文章

    46860

    瀏覽量

    237585
收藏 人收藏

    評論

    相關推薦

    GPU深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術的飛速發展,深度學習作為其核心部分,已經成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關重要的角色,
    的頭像 發表于 11-19 10:55 ?247次閱讀

    深度學習中RNN的優勢與挑戰

    循環神經網絡(RNN)是深度學習領域中處理序列數據的基石。它們通過在每個時間步長上循環傳遞信息,使得網絡能夠捕捉時間序列數據中的長期依賴關系。然而,盡管RNN在某些任務上表現出色,它們也面臨著一些
    的頭像 發表于 11-15 09:55 ?165次閱讀

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優化的處理器,它與傳統的CPU和GPU
    的頭像 發表于 11-14 15:17 ?298次閱讀

    pcie在深度學習中的應用

    深度學習模型通常需要大量的數據和強大的計算能力來訓練。傳統的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發表于 11-13 10:39 ?289次閱讀

    GPU深度學習應用案例

    GPU深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是
    的頭像 發表于 10-27 11:13 ?328次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發表于 10-17 10:07 ?154次閱讀

    FPGA做深度學習能走多遠?

    的發展前景較為廣闊,但也面臨一些挑戰。以下是一些關于 FPGA 在深度學習中應用前景的觀點,僅供參考: ? 優勢方面: ? 高度定制化的計算架構:FPGA 可以根據
    發表于 09-27 20:53

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術的飛速發展,深度學習算法在各個領域的應用日益廣泛。然而,將深度學習算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰性的任
    的頭像 發表于 07-15 10:03 ?1179次閱讀

    深度學習與傳統機器學習的對比

    在人工智能的浪潮中,機器學習深度學習無疑是兩大核心驅動力。它們各自以其獨特的方式推動著技術的進步,為眾多領域帶來了革命性的變化。然而,盡管它們都屬于機器學習的范疇,但
    的頭像 發表于 07-01 11:40 ?1194次閱讀

    新手小白怎么學GPU云服務器跑深度學習?

    新手小白想用GPU云服務器跑深度學習應該怎么做? 用個人主機通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實現更經濟便捷的實現GPU云服務器
    發表于 06-11 17:09

    大模型時代,國產GPU面臨哪些挑戰

    ,國產GPU在不斷成長的過程中也存在諸多挑戰。 ? 在大模型訓練上存在差距 ? 大語言模型是基于深度學習的技術。這些模型通過在海量文本數據上的訓練,
    的頭像 發表于 04-03 01:08 ?4599次閱讀
    大模型時代,國產<b class='flag-5'>GPU</b><b class='flag-5'>面臨</b>哪些<b class='flag-5'>挑戰</b>

    FPGA在深度學習應用中或將取代GPU

    基礎設施,人們仍然沒有定論。如果 Mipsology 成功完成了研究實驗,許多正受 GPU 折磨的 AI 開發者將從中受益。 GPU 深度學習面臨
    發表于 03-21 15:19

    詳解深度學習、神經網絡與卷積神經網絡的應用

    在如今的網絡時代,錯綜復雜的大數據和網絡環境,讓傳統信息處理理論、人工智能與人工神經網絡都面臨巨大的挑戰。近些年,深度學習逐漸走進人們的視線,通過
    的頭像 發表于 01-11 10:51 ?1916次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學習</b>、神經網絡與卷積神經網絡的應用

    揭秘GPU: 高端GPU架構設計的挑戰

    在計算領域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設計充滿了挑戰GPU的架構創新,為軟件承接大模型訓練和推理場景的人工智能計算提供了持續提升的硬件基礎。
    的頭像 發表于 12-21 08:28 ?856次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b>架構設計的<b class='flag-5'>挑戰</b>

    GPU深度學習中的應用與優勢

    人工智能的飛速發展,深度學習作為其重要分支,正在推動著諸多領域的創新。在這個過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU
    的頭像 發表于 12-06 08:27 ?1212次閱讀
    <b class='flag-5'>GPU</b>在<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中的應用與優勢