隨著機器學習應用開始出現在終端設備和物聯網網絡邊緣,實現AI的加速器可能看起來更像FPGA和SoC模組,而不是英特爾和英偉達目前的數據中心綁定芯片(data-center-bound chip)。
人工智能和機器學習需要功能強大的芯片來從大數據集中計算答案。大多數AI芯片——包括訓練和推理——都是為數據中心開發的。然而,這種趨勢很快就會改變。其中很大一部分處理將發生在邊緣,即網絡的邊緣或傳感器和傳感器陣列的內部或附近。
幾乎可以肯定,訓練將留在云端,因為對于這一大塊資源的最有效產品是英偉達的GPU,它主導著這一部分市場。盡管數據中心可能會承擔包含大量數據集的訓練部分,但推理可能最終會交給邊緣。市場預測似乎同意這一點。
Tractica公司研究主管、邊緣設備AI報告的作者Aditya Kaul說:“推理硬件市場是一個新市場,但變化迅速。數據中心有一些機會,并將繼續存在。基于云的數據中心AI芯片市場將繼續增長。但是推理處于邊緣,這里開始變得引人注目。至少有70家專業人工智能公司正在研究某種與芯片相關的人工智能技術。”
Kaul說:“在邊緣,智能手機、機器人、無人機、相機、安全攝像頭等所有需要AI處理的設備都將成為未來的熱點。”
圖1:按市場領域劃分的深度學習芯片組收入
到2025年,基于云的AI芯片組將帶來146億美元的收入,而基于邊緣的AI芯片組將帶來516億美元的收入,是數據中心的3.5倍,邊緣AI芯片組主要由手機、智能音箱、無人機、AR/VR耳機,以及其他所有需要AI處理的設備組成。
雖然英偉達和英特爾現在可能主導基于數據中心的機器學習應用的市場,誰將占據遠離數據中心的邊緣計算AI市場?那些芯片會是什么樣子?
AI邊緣芯片需要做什么
根據Semico Research公司ASIC和SoC分析師Rich Wawrzyniak所言,邊緣計算、物聯網和消費終端設備將需要以相對較低的功耗、價格和較小芯片尺寸進行高性能推理處理。這很困難,特別是因為邊緣設備處理的大多數數據是龐大的視頻和音頻數據。
Wawrzyniak說:“數據很多,但如果你有監控攝像頭,它必須能夠實時識別出壞人,而不是把一張照片發送到云端,然后等著看有沒有人認出他。”
圖2
將ML級別的智能添加到邊緣設備的一些愿望來自于需要將這些設備上的數據保密,或者降低將數據發送到云端的成本。然而,大部分需求來自那些希望設備位于邊緣計算設施或掌握在客戶手中的客戶,他們不希望設備簡單地收集數據并定期將其發送到云端,以便他們可以直接與公司自己的數據或其他客戶和路人進行實時交互。
NXP半導體AI技術主管Markus Levy表示:“客戶意識到,他們不想把大量處理工作轉移到云端,因此他們認為邊緣是真正的目標。既然你可以在邊緣實現AI,你就可以把物聯網變成真正具有能力的東西。我們看到消費者物聯網、工業物聯網以及嵌入式的增長非常快,這是我們最大的增長領域。”
據IDC分析師Shane Rau稱,今年接受IDC調查的商業技術客戶表示,他們確定會把機器學習轉移到邊緣設備上,主要是汽車、智能家居、視頻監控攝像頭和智能手機。該公司的客戶調查將這四種設備列為ML的候選設備。
邊緣AI架構發展趨勢
邊緣計算的需求范圍可能包括數億計的工業和消費設備,因此任何單一的架構都不太可能滿足所有這些需求。
NXP的Levy表示:在微控制器和相對低端的芯片上運行推理模型是可以的,但大多數機器學習功能需要從基于FPGA、ASIC和其他SoC配置的一長串可選CPU附加項,以及GPU和CPU的組合,有時還需要由Google的TPU等特殊用途的ASIC來增強。
大部分的增強都是以加速器的形式出現的。這些FPGA、SoC、ASIC和其他專用芯片旨在幫助資源受限的基于x86的設備通過一層接一層的分析標準處理大量圖像或音頻數據,因此app可以正確地計算和加權每個數據的值。
英特爾和英偉達已經向邊緣AI市場發起沖擊。Kaul說,像英偉達的Jetson這樣的產品并不能令人信服。Jetson是一個GPU模塊平臺,具有7.5W的功率預算,只有英偉達更典型產品的70W功率的一小部分,但對于一般不超過5W的邊緣應用來說還是太高了。
Levy說:“有很多IP公司正在為神經網絡尋求加速,因此有足夠的選擇使加速器開始成為邊緣設備推理的需求。”
圖3:按類別劃分的AI邊緣設備出貨量
但是,要想在潛在的億萬個設備上添加ML加速和支持,將需要更多的可定制性、更低的成本,以及更專門針對資源受限設備上ML應用需求的規范——這意味著,如果要取得成功,整個市場將需要更好的處理器。
神經推理需要數萬億次乘法累加運算,因為模型從其公式矩陣的一層提取數據,盡管每一層可能需要不同的數據大小,而且其中一些設備可能在輸入設置為8位整數而不是16位整數時運行得更快。
Flex Logix聯合創始人兼首席執行官Geoff Tate表示:“為了在數據中心獲得良好的吞吐量,大多數架構依賴于必須使用相同的權重集來創建批處理的數十或數百個任務。如果你有28張圖片,你加載圖片,加載第一階段的權重,對第一階段做數學運算,保存結果,然后加載第二階段的權重。通過在每一層上完成所有28個批次,你可以將權重加載時間縮減到一次只加載一個的1/28。如果加載和管理權重是你不擅長的,那么你可以通過批處理來解決它。這就是為什么你會看到基準測試顯示第28批的運行效率低于第1批。如果加載權重的速度很慢,則難以擴展。但在數據中心之外的任何地方都必須這樣做。如果你有監控攝像頭,則必須在圖像傳入時對其進行處理,以便批大小始終等于1。如果你在測量性能,則數據中心外的批大小始終等于1。”
Flex Logix開發的神經網絡引擎可以避免批處理問題。Tate說:“因為我們加載權重的速度非常快,所以我們不需要進行批處理,我們的性能在第1批和第28批時相同,這在邊緣應用中非常重要。”
推理硬件方面的兩項新工作
Xilinx試圖利用其在FPGA和系統級設計方面的經驗,推出新的產品系列和路線圖,以滿足盡可能多的邊緣/設備市場的需求。
Xilinx在去年春天討論了這個想法,但直到10月才正式宣布,該公司描述了一個自適應計算加速平臺,該平臺“利用CPU、GPU和FPGA的力量來加速一切應用”。
Xilinx的演示描述了一個廣泛的產品線、使用案例列表和有關其AI引擎核心的詳細信息,其目標是提供比傳統方法的單位芯片面積高出3~8倍的性能,并提供高性能DSP能力。
與此同時,Flex Logix創建了一個使用低DRAM帶寬的可重構神經加速器。芯片的面積和功率的目標規格將在明年上半年完成,并在下半年流片。推理引擎將充當CPU,而不僅僅是一個更大,更漂亮的加速器。它提供了模塊化、可擴展的架構,旨在通過減少移動數據的需要以及通過改進數據和矩陣計算的加載方式來減少瓶頸,從而降低移動數據的時間和精力成本。
該芯片將DRAM專用于單個處理器塊,而不是將其作為一個大內存池進行管理。DRAM不能同時將數據饋送到芯片的多個部分。Tate說:“將DRAM作為流入一個處理器塊的大內存池處理,這是范諾依曼架構的典型特征,但它不會成為神經網絡的成功架構。”
早期
Wawrzyniak表示,Xilinx,Flex Logix和其他公司蜂擁到了一個仍處于發展中的邊緣推理市場,顯示出市場和SoC、FPGA制造商提供良好技術以應對它們的能力的廣泛信心,但這并不能保證他們能夠克服安全、隱私、現狀的慣性和其他無形的問題。同樣,FPGA、ASIC和SoC加速ML的市場仍處于起步階段。
Linley Group的Linley GwenNap表示,當一個新市場發展起來時,看到許多新的參與者和新方法是正常的。FPGA和ASIC供應商也在其中,因為這些技術使一家知道自己在做什么的公司能夠快速生產出合理的產品。不過,標準最終將在一兩年內回歸,這將穩定所涉及的參與者的數量和專長,并確保與其他市場的互通性。
-
智能手機
+關注
關注
66文章
18431瀏覽量
179860 -
機器人
+關注
關注
210文章
28205瀏覽量
206534 -
AI
+關注
關注
87文章
30146瀏覽量
268421 -
無人機
+關注
關注
228文章
10340瀏覽量
179634
原文標題:AI芯片架構競相走向邊緣
文章出處:【微信號:RTThread,微信公眾號:RTThread物聯網操作系統】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論