最初,具有所有“無限”功能的云計算似乎消除了對邊緣設(shè)備具有任何實質(zhì)性智能的需求。然而,在過去幾年中,有一種趨勢是在邊緣設(shè)備中實施人工智能 (AI) 和機器學習 (ML),以解決數(shù)據(jù)傳輸延遲、隱私和更大的設(shè)備自主性等問題。這為在邊緣設(shè)備中構(gòu)建嵌入式系統(tǒng)帶來了一定的內(nèi)存要求。本文探討了適用于邊緣設(shè)備的某些 ML 方案,以及實現(xiàn)這些設(shè)備的非易失性存儲器要求。
為什么在邊緣設(shè)備上進行機器學習 (ML)
邊緣設(shè)備是生成 ML 數(shù)據(jù)的地方。物聯(lián)網(wǎng)、工業(yè)和消費領(lǐng)域的應(yīng)用從自己的傳感器生成大量數(shù)據(jù),并且需要能夠根據(jù)人機界面 (HMI) 的命令做出快速決策。傳感器融合技術(shù)使在邊緣設(shè)備上獲取數(shù)據(jù)變得更容易、更快、更準確。HMI使人機交互更加用戶友好和自適應(yīng)。當然,在更接近其來源的 ML 計算引擎中處理數(shù)據(jù)是有意義的。邊緣計算永遠不會取代云計算;但是,不必將數(shù)據(jù)傳輸?shù)皆疲梢愿斓赜柧殭C器,并且可以大大減少與云服務(wù)器的連接帶寬。
廣泛的物聯(lián)網(wǎng)應(yīng)用可以從提供本地AI處理中受益。圖 1 顯示了 SensiML 的圖表,其中列出了邊緣設(shè)備上的 AI 處理示例。
當然,在邊緣設(shè)備上實施ML肯定會面臨挑戰(zhàn)。例如,邊緣設(shè)備可能依賴電池,因此能源預算有限。它們也可能具有有限的計算能力和/或內(nèi)存空間。然而,現(xiàn)代MCU技術(shù)正在邊緣設(shè)備上實現(xiàn)這一目標。如圖2所示,從Barth Development所做的研究中,在過去的幾十年里,我們可以看到,雖然MCU功耗保持相對平穩(wěn),但晶體管的數(shù)量、時鐘速度、并行內(nèi)核的數(shù)量都在上升。隨著越來越多的高性能、低功耗MCU問世,邊緣計算可以幫助構(gòu)建智能且用戶友好的系統(tǒng)。
圖2:過去幾年的MCU研究(來源:Barth Development)
機器學習的不同方案
一般來說,ML可以分為兩大類:監(jiān)督學習和無監(jiān)督學習。監(jiān)督學習是指使用“標記”的數(shù)據(jù)訓練機器,這意味著每個數(shù)據(jù)樣本都包含特征和答案。通過向機器提供這些標記數(shù)據(jù),我們正在訓練它找到特征和答案之間的相關(guān)性。訓練后,當我們?yōu)闄C器提供一組新功能時,希望它能得出我們期望的正確答案。例如,可以訓練設(shè)備在其視頻源(即相機)捕獲的圖像中查找文本和數(shù)字。為了以非常簡化的方式描述該過程,通過給定可能包含也可能不包含文本和數(shù)字的圖像以及正確答案(即“標簽”)來訓練設(shè)備。訓練后,該設(shè)備可以在任何給定的新圖像中查找文本和數(shù)字。
另一方面,無監(jiān)督學習是指向機器提供未“標記”的數(shù)據(jù)的方法,這意味著每組特征都沒有答案。無監(jiān)督學習的目標是從所有這些數(shù)據(jù)中找到隱藏的信息,無論是對數(shù)據(jù)集進行聚類,還是找到它們之間的關(guān)聯(lián)。無監(jiān)督學習的一個例子可能是在生產(chǎn)線末端執(zhí)行質(zhì)量控制,從所有其他產(chǎn)品中發(fā)現(xiàn)異常產(chǎn)品(即異常檢測)。設(shè)備沒有給出“標簽”答案以指示哪些產(chǎn)品異常。通過分析每個產(chǎn)品中的特征,該算法會自動從大多數(shù)好產(chǎn)品中識別不良產(chǎn)品,因為設(shè)備經(jīng)過訓練以查看它們之間的差異。
在本文中,我們將嘗試更深入地介紹可以部署在邊緣設(shè)備中的監(jiān)督學習算法。我們將使用一些簡單的數(shù)學公式來解釋兩種學習算法之間的差異。
如上所述,監(jiān)督學習將標記的數(shù)據(jù)集饋送到正在訓練的設(shè)備中。假設(shè)每個數(shù)據(jù)集包含許多特征 x1, x2.。.xn.接下來,為每個特征分配一個系數(shù) q,并記下函數(shù)。這稱為假設(shè)函數(shù),hq(十):
hq(x) = q0+ 問1 x1 + 問2 x2+ 問3 x3 。.. + qn xn
訓練機器意味著一組適當?shù)膓(q0, q1, q2, 。.., qn) 的發(fā)現(xiàn)使得假設(shè)輸出 hq(x) 盡可能接近給定的答案(標簽)。訓練后,當一組新的特征 X (x1, x2, 。.., xn) 提出,假設(shè)函數(shù)將給出基于 q 的最優(yōu)集的輸出。
查找 q 的一種方法是使用梯度下降的線性回歸。以下步驟是此方法的簡化說明:
1.選擇一組初始。..n.然后計算假設(shè)和給定答案 Y 之間的差異。這種差異通常稱為成本。
2.不斷向成本小的方向轉(zhuǎn)變。每次重新計算成本。重復此步驟,直到成本不再降低。
3.如果成本不再降低,我們已經(jīng)達到了一個最佳集合,為我們提供了所有給定樣品的最低成本。
4.現(xiàn)在,如果給出一組新的X,這組可用于預測輸出。
梯度下降的名稱來自步驟 2 中更改 q 的方法。通過在梯度方向上更新q,該算法保證它將收斂到最佳值。圖 3 顯示了梯度下降的圖形表示,以得到最小成本函數(shù) J(q0, q1)。
圖 3:梯度下降中的成本函數(shù) J 與參數(shù)集 q 的關(guān)系
如果在步驟 2 中對所有給定的數(shù)據(jù)樣本進行成本計算,則該方法稱為批量梯度下降。每次更新 q 時,該算法都會計算所有訓練數(shù)據(jù)樣本的成本。這種計算方式為如何更改 q 提供了更好的方向。但是,如果給定的訓練數(shù)據(jù)樣本集很大,則計算所有樣本的成本需要大量的計算能力。此外,系統(tǒng)必須在訓練期間存儲所有數(shù)據(jù)樣本。
梯度下降的另一種方法是對數(shù)據(jù)樣本的子集執(zhí)行步驟 2。這種方法稱為隨機梯度下降。該算法在每次迭代時根據(jù)較小的數(shù)據(jù)樣本集更改 q。此方法可能需要更多迭代才能達到最佳 q,但它節(jié)省了大量的計算能力和潛在的時間,因為它不需要計算整個數(shù)據(jù)樣本集的成本。
使用隨機梯度下降法,用于計算成本的最小樣本數(shù)為一個。如果 ML 算法在有新的數(shù)據(jù)樣本可用時細化 q,我們可以將此 ML 算法視為基于順序數(shù)據(jù)樣本的持續(xù)行為更新。當每個可用的數(shù)據(jù)樣本進來時,算法會計算新的 q。因此,系統(tǒng)會在每個步驟動態(tài)更新假設(shè)函數(shù)。這種方法也稱為在線梯度下降或在線機器學習。
批量梯度下降與在線機器學習
在批量梯度下降和在線機器學習之間,后者具有適用于邊緣設(shè)備的某些特征。
1.無限數(shù)據(jù)樣本
如前所述,邊緣設(shè)備通常配備傳感器或HMI,可以連續(xù)提供無窮無盡的數(shù)據(jù)樣本或人工反饋。因此,在線 ML 算法可以不斷從數(shù)據(jù)變化中學習并改進假設(shè)。
2.算力
邊緣設(shè)備通常具有有限的計算能力。對大量數(shù)據(jù)樣本運行批量梯度下降算法可能不切實際。但是,通過一次計算一個數(shù)據(jù)樣本,就像在在線機器學習中一樣,MCU 不必具有巨大的計算能力。
3.非易失性(NV)存儲器
批量梯度下降算法要求系統(tǒng)存儲整個訓練集,這些訓練集必須駐留在非易失性存儲中,而在線 ML 算法一次計算一個傳入的數(shù)據(jù)樣本。在線 ML 算法可能會丟棄數(shù)據(jù)或僅存儲一小部分樣本,以節(jié)省非易失性存儲。這特別適用于非易失性存儲器可能受限的邊緣設(shè)備。
4.適應(yīng)性
想象一下,在線 ML 算法在邊緣設(shè)備上執(zhí)行語音識別。通過新的數(shù)據(jù)樣本不斷訓練算法,系統(tǒng)可以動態(tài)適應(yīng)特定的用戶和/或口音。
邊緣設(shè)備上 ML 的非易失性內(nèi)存要求
除了MCU,非易失性存儲器是設(shè)計進行ML處理的邊緣設(shè)備的另一個重要因素。嵌入式閃存是一個顯而易見的選擇,如果MCU為應(yīng)用軟件提供了足夠的電子閃存。然而,隨著MCU技術(shù)節(jié)點的不斷縮小,電子閃存變得越來越難以集成。簡而言之,應(yīng)用軟件的增長超過了可用的電子閃存。在這種情況下,外部獨立NV閃存變得必要。考慮到不同類型NV閃存設(shè)備提供的可靠性、讀取吞吐量和就地執(zhí)行功能,NOR閃存通常是邊緣系統(tǒng)設(shè)計人員的首選。
要為 ML 構(gòu)建安全可靠的邊緣設(shè)備,需要考慮許多設(shè)計因素。以下是其中的一些,可幫助設(shè)計人員決定使用哪種NV存儲器(參見圖4)。
1.安全啟動
所有嵌入式系統(tǒng)都必須安全啟動。對于邊緣設(shè)備,安全啟動尤其重要,因為靠近人類訪問,因此存在潛在安全攻擊的風險。通常,對于使用存儲下載 (SnD) 代碼模型的設(shè)備,引導代碼存儲在非易失性存儲器中并下載到 RAM 中執(zhí)行。如果非易失性存儲器不安全,黑客很容易替換或修改啟動代碼進行惡意操作。因此,將引導代碼存儲在安全的非易失性存儲器中并在引導期間建立信任根是邊緣設(shè)備非常重要的考慮因素。
2.抗攻擊性
鑒于邊緣設(shè)備的連接性,邊緣設(shè)備的攻擊面無疑是巨大的。即使使用安全啟動,黑客也可能試圖通過各種攻擊方法從設(shè)備中竊取智能機密或隱私信息,例如被動監(jiān)控、主動重放攻擊、側(cè)信道攻擊等。使用能夠抵抗這些攻擊的非易失性存儲器可以大大降低系統(tǒng)暴露的風險。
3.重要AI參數(shù)的安全存儲
ML 算法需要參數(shù)的內(nèi)存存儲,例如上面提到的參數(shù)集。這些參數(shù)是使用大量數(shù)據(jù)樣本集運行訓練的結(jié)果。黑客對AI算法本身可能不感興趣,但最終結(jié)果通常是。如果黑客可以從存儲中竊取最終結(jié)果,他們可以不經(jīng)過任何培訓即可模仿AI系統(tǒng)。這些參數(shù)(例如參數(shù)集)直接影響 ML 方案和系統(tǒng)的智能。因此,它們應(yīng)存儲在安全的存儲中,黑客不會無意或故意更改。提供這種安全存儲能力的非易失性存儲器將非常適合具有敏感信息要存儲的邊緣設(shè)備。
4.吞吐量快
盡管邊緣設(shè)備可能不需要強大的MCU來運行廣泛的ML算法,但它們可能仍需要快速訪問非易失性存儲器,以實現(xiàn)快速安全啟動和良好的計算性能。
圖 4:使用機器學習的邊緣設(shè)備需要支持安全啟動、抵御惡意攻擊、安全存儲和快速吞吐量的非易失性存儲器,如此處所示的 CypressSemper 安全 NOR 閃存。
在邊緣設(shè)備中實現(xiàn)智能是一種行業(yè)趨勢,以便用戶數(shù)據(jù)的處理更接近其來源。許多 AI 應(yīng)用程序可以部署在構(gòu)建智能和用戶友好系統(tǒng)的邊緣設(shè)備上。機器學習算法之一,在線機器學習,不需要廣泛的計算能力,對變化具有很強的適應(yīng)性,適用于邊緣設(shè)備。為了在邊緣設(shè)備上構(gòu)建智能且安全的系統(tǒng),用戶可以選擇提供信任根功能、安全存儲、快速吞吐量和抗惡意攻擊的非易失性存儲器。
審核編輯:郭婷
-
傳感器
+關(guān)注
關(guān)注
2548文章
50668瀏覽量
751981 -
物聯(lián)網(wǎng)
+關(guān)注
關(guān)注
2903文章
44269瀏覽量
371233 -
機器學習
+關(guān)注
關(guān)注
66文章
8377瀏覽量
132407
發(fā)布評論請先 登錄
相關(guān)推薦
評論