精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

管理 ML 模型部署中的權衡

茶壺茶茶 ? 2022-07-21 09:19 ? 次閱讀

機器學習代碼放在哪里——在云中、邊緣設備上或前提上——總是需要權衡。這里有一些提示。

工程師經常需要就代碼的放置位置做出重要決定:在云中、邊緣設備上或本地。這個決定總是涉及權衡——考慮到適用于每組情況的軟件、固件、開發工具和硬件的正確組合。在 Samsara 的機器學習和計算機視覺 (ML/CV) 團隊中,我們構建模型并開發算法,幫助我們的客戶提高其運營的安全性、效率和可持續性。例如,構建應用程序以實時檢測和警告有風險的駕駛行為,并最終降低道路事故的頻率。

在尋求構建 ML 解決方案時,運輸、倉儲或制造等行業的運營環境構成了獨特的限制。例如,遠程位置可能會因連接受限而出現瓶頸,或者擁有無法運行最新最好的模型的過時技術系統。這些限制,再加上這些應用程序的安全關鍵方面,需要低延遲、計算效率高的 ML 推理,因為往返網絡延遲和參差不齊的蜂窩覆蓋將消除在云中完全實現這些功能的可能性。因此,除了保證模型的準確性之外,模型還必須在與邊緣硬件平臺相關的更嚴格的計算、內存和延遲范圍內運行。

可以想象,在為此類邊緣部署選擇模型時,需要分析和考慮許多權衡。以下是您可能會遇到的一些常見問題,以及如何處理它們。

首先,您必須考慮 ML 引擎的計算吞吐量和準確性之間的權衡。同樣,由于蜂窩網絡覆蓋范圍參差不齊,您無法在云中實現所有內容并相信數據可以可靠地交付。在車載高級駕駛員輔助系統 (ADAS) 的情況下,您也不能讓笨重的攝像頭或處理器擋住車輛的儀表板。您需要權衡這種權衡:一個更緊湊的平臺(例如,類似于智能手機中使用的處理器),具有專門的片上系統硬件,可以處理圖像和信號處理,同時仍然保留大量處理ML 模型有效運行的空間。

使用這個更緊湊的平臺,您必須考慮您的功率預算,尤其是任何基于移動的應用程序。運行程序所消耗的功率越多,您必須消散的熱能就越多,電池消耗的電量就越多。某些硬件協處理器支持某些指令集,并且每個計算單元的功率效率非常高。但是,并非所有數學運算都可以在這些指令集中準確地構建。在這些情況下,您必須回退到更通用的計算平臺(如 GPUCPU),這些平臺支持更多的數學運算,但更耗電。

移動友好型架構旨在利用硬件加速(例如 DSP),可以減少整體模型大小和內存消耗,但仍為您使用它的產品應用程序提供足夠好的精度。在這些架構中,您再次面臨一系列決策,包括模型準確性/延遲權衡以及是構建自己的 AI 解決方案還是利用外部 AI 服務提供商來訓練和測試您的 ML 模型。

接下來,重要的是要考慮您的模型如何集成到所選硬件中。因為所有處理器都有不同的指令集來支持特定的操作,所以查看每個硬件平臺的文檔以了解這些優勢如何影響您的特定代碼會有所幫助。每個部署環境都有自己的一組內置特性。例如,tflite、TensorRT、SNPE 等有不同的支持操作集,所有這些都略有不同。無論您最終使用哪種芯片組,您仍然必須將所有數學計算硬塞到將執行這些計算的最終硬件中。

您可能會遇到的一個問題是部署環境可能不支持網絡訓練時使用的所有網絡操作和層。此外,某些操作沒有硬件加速實現,迫使您在 CPU 上運行這些元素,這可能會造成內存和性能瓶頸。其中一些不兼容性需要在訓練過程中通過修改模型架構本身來解決,而另一些則需要在將模型轉換為硬件兼容格式時加以解決。

最后一步是對最終模型版本進行基準測試,并將性能特征與原始規格進行比較。你必須要有創意并精簡你的模型,這樣它才能以低延遲運行。這包括刪除模型操作并將不兼容操作的子圖替換為硬件支持的操作以更快地運行。其他策略包括通道修剪、層折疊和權重量化。

歸根結底,有時您可以讓您的模型同時在設備和云中運行。但是,當您受到底層硬件性能特征、網絡延遲和準確性要求的限制時,我們應該考慮在哪里以及如何運行模型。分割模型執行以在邊緣設備或云上的后端服務中運行仍然是一門藝術,而不是科學。一個好的產品將整合對解決方案功能和客戶需求、硬件限制以及平衡行為的深刻理解,以制定滿足這些需求同時尊重物理約束的模型。

— Sharan Srinivasan 和 Brian Tuan 是 Samsara 機器學習和計算機視覺工程團隊的軟件工程師,Samsara是一家位于舊金山的全球互聯運營云公司。在 Samsara,Srinivasan 和 Tuan 負責使用 Tensorflow、OpenCV、Pyspark 和 Go 解決各種機器學習以應對計算機視覺挑戰,以構建在邊緣運行的模型。


審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3178

    瀏覽量

    48731
  • ML
    ML
    +關注

    關注

    0

    文章

    146

    瀏覽量

    34612
收藏 人收藏

    評論

    相關推薦

    AI模型部署管理的關系

    AI模型部署管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?91次閱讀

    YOLOv6在LabVIEW的推理部署(含源碼)

    YOLOv6 是美團視覺智能部研發的一款目標檢測框架,致力于工業應用。如何使用python進行該模型部署,官網已經介紹的很清楚了,但是對于如何在LabVIEW實現該模型
    的頭像 發表于 11-06 16:07 ?182次閱讀
    YOLOv6在LabVIEW<b class='flag-5'>中</b>的推理<b class='flag-5'>部署</b>(含源碼)

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業AI模型部署的步驟以及注意事項
    的頭像 發表于 11-04 10:15 ?106次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環境可能會帶來一些挑戰和優勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學習的神經網絡模型,它們能夠
    的頭像 發表于 07-09 10:14 ?419次閱讀

    PerfXCloud大模型開發與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發者和企業量身打造的AI開發和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗。 PerfXCloud為算
    的頭像 發表于 07-02 10:27 ?353次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發與<b class='flag-5'>部署</b>平臺開放注冊

    使用TVM量化部署模型報錯NameError: name \'GenerateESPConstants\' is not defined如何解決?

    各位好,我在使用TVM部署模型時,遇到一下錯誤,請問如何解決?我進esp.py文件看,有如下兩個函數是找不到定義的: GenerateESPConstants(), ExtractConstantsFromPartitionedFunction(),
    發表于 06-28 10:50

    模型端側部署加速,都有哪些芯片可支持?

    電子發燒友網報道(文/李彎彎)大模型在端側部署是指將大型神經網絡模型部署在移動終端設備上,使這些設備能夠直接運行這些模型,從而執行各種人工智
    的頭像 發表于 05-24 00:14 ?3974次閱讀

    基于stm32h743IIK在cubeai上部署keras模型模型輸出結果都是同一組概率數組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型模型輸出結果都是同一組概率數組,一點也搞不明白,看社區也有相同的問題,但沒有解決方案
    發表于 05-20 08:18

    使用 Renesas RA8M1 MCU 快速地部署強大高效的 AI 和 ML 功能

    新的工作負載會增加功耗,盡管要求設計人員盡量降低功耗并加快產品上市時間。 設計人員需要一個計算選項,既能保持 MCU 的效率,又能增加專為低功耗應用定制的高性能功能。這一選項還應保留與傳統 MCU 相關的簡單部署模式,同時增加足夠的功能,以支持 AI 和 ML 帶來的復雜
    的頭像 發表于 05-05 10:14 ?556次閱讀
    使用 Renesas RA8M1 MCU 快速地<b class='flag-5'>部署</b>強大高效的 AI 和 <b class='flag-5'>ML</b> 功能

    基于 Renesas 的 RA8M1 實現 AI 和 ML 部署

    新的工作負載會增加功耗,盡管要求設計人員盡量降低功耗并加快產品上市時間。 設計人員需要一個計算選項,既能保持 MCU 的效率,又能增加專為低功耗應用定制的高性能功能。這一選項還應保留與傳統 MCU 相關的簡單部署模式,同時增加足夠的功能,以支持 AI 和 ML 帶來的復雜
    的頭像 發表于 04-23 15:04 ?1162次閱讀
    基于 Renesas 的 RA8M1 實現 AI 和 <b class='flag-5'>ML</b> <b class='flag-5'>部署</b>

    使用CUBEAI部署tflite模型到STM32F0模型創建失敗怎么解決?

    CRC IP,用MX生成工程時已經啟用了CRC,代碼也有。 但是依舊無法生成模型。 想問問該如何解決,還是說F0還是無法部署AI模型
    發表于 03-15 08:10

    使用ml configurator進行tflite網絡模型的轉換不成功怎么解決?

    使用ml configurator進行tflite網絡模型的轉換不成功,提示錯誤,請幫忙協助謝謝 [ERROR] Failed to run QEMU
    發表于 01-31 06:56

    邊緣側部署模型優勢多!模型量化解決邊緣設備資源限制問題

    電子發燒友網報道(文/李彎彎)大模型的邊緣部署是將大模型部署在邊緣設備上,以實現更快速、更低延遲的計算和推理。邊緣設備可以是各種終端設備,如智能手機、平板電腦、智能家居設備等。通過將大
    的頭像 發表于 01-05 00:06 ?3395次閱讀

    【愛芯派 Pro 開發板試用體驗】人體姿態估計模型部署前期準備

    部署模型的整體架構。接下來就回到最開始定的主線上了——人體姿態估計。這篇文章就是記錄對一些輕量化人體姿態估計模型的調研,和前期準備。 1、人體姿態估計任務介紹 下面對人體姿態估計任務做一個簡單的介紹
    發表于 01-01 01:04

    【愛芯派 Pro 開發板試用體驗】模型部署(以mobilenetV2為例)

    啊抱歉,上周得了一周的流感,人才活過來。。本來還想研究下sam它是怎么部署的,但是時間好像有點來不急,就講個最簡單的efficientNet吧。但是會仔細講下使用模型部署,實際也就是推理引擎的全過程
    發表于 12-10 16:34