人工智能的三大核心,是深度學習算法、數據和算力。在這三大要素中,大數據的獲取和處理難度在下降,算法也在深度學習模型的基礎上不斷優化,而統一協調數據和算法的AI芯片能否獲得大的飛躍,成為市場關注的焦點。
根據Gartner數據,全球各大芯片公司、互聯網巨頭和創業企業都在AI芯片市場競爭,預計到2023年全球市場規模將達到323億美元,其中數據中心、個人終端和物聯網芯片是增長重點。
深度學習算法對芯片性能需求主要為:大數據在計算和存儲單元之間的高速通信需求;專業計算能力需求,深度學習算法中有大量卷積、殘差網絡、全連接等特殊計算需要處理,需要需要提升運算速度,降低功耗;大數據對芯片提出的新要求,非結構化數據增多,對傳統芯片結構造成較大壓力。
通用CPU在深度學習中可用但效率低。比如在圖像處理領域,主要用到的是CNN(卷積神經網絡),在自然語言識別、語音處理等領域,主要用到的是RNN(循環神經網絡),雖然這兩種算法模型有較大差別,但本質都是向量和矩陣運算。
正因為CPU在AI計算上的弱點,給了可以實現海量并行計算且能夠計算加速的AI芯片開拓了市場空間。AI芯片,包括基于傳統架構的GPU、FPGA以及ASIC,也包括類腦芯片和可重構AI芯片等。
AI芯片還可以按照部署位置劃分為云端芯片和邊緣端芯片。云端芯片部署位置包括公有云、私有云、混合云等,主要用于處理大數據和大規模運算,還能夠支持語音、圖片、視頻等非結構化應用的計算和傳輸,可用多個處理器并行完成相關任務;邊緣端AI芯片主要應用于嵌入式、移動終端等,如攝像頭、智能手機、邊緣服務器、工控設備,此類芯片一般體系小、耗電低,性能要求略低,一般只具備少量AI能力。
同時AI芯片按照任務還可以劃分為訓練芯片和推理芯片。訓練芯片通過大量標記過的數據在平臺上進行“學習”,并形成具備特定功能的神經網絡模型;推理則是利用已經訓練好的模型輸入新數據通過計算得到各種結論。訓練芯片對算力、精度要求高且需要一定的通用性,推理芯片更注重綜合能力,包括算力能耗、時延、成本等。
訓練芯片由于對算力的要求,只適合在云端部署,多采用“CPU+加速芯片”,加速芯片可以是CPU、FPGA或者ASIC。AI訓練芯片市場集中度高,英偉達和谷歌領先,英特爾和AMD正在發力。推理芯片在云端和終端都可以進行,門檻低,市場參與者多,比如英偉達、谷歌、賽靈思、寒武紀等。終端推理芯片市場較為分散,參與者有英偉達、英特爾、ARM、高通、寒武紀、地平線、云知聲等。
GPU、FPGA、ASIC各有特點和優勢。GPU是由大量核心組成的大規模并行計算架構,專為多任務并行運算處理設計的芯片。以英偉達的GPUTITANX為例,其在深度學習中所需的訓練時間是CPU的1/10以下,但缺點是功耗高。
FPGA靈活性最高,可根據用戶需求,用硬件描述語言對FPGA的硬件電路進行設計。同時FPGA具有算力強、功耗優勢明顯、成本可控等優勢,但是技術難度大,目前國內公司差距明顯。基于此,FPGA被廣泛應用在AI云端和終端推理,亞馬遜、微軟都推出了基于FPGA的云計算服務,國內包括騰訊云、阿里云和百度大腦也有所布局,但差距較大。從市場上看,FPGA被賽靈思、英特爾、Lattice和Microsemi壟斷,其中賽靈思和英特爾市場份額超過90%。
ASIC是對特定用戶需求設計的定制芯片,性能強、體積小、功耗低、可靠性高。ASIC是一種技術方案,產品和功能可以是多樣的。越來越多的公司開始采用ASIC芯片進行深度學習算法加速,比如Google的TPU。但是ASIC研發周期長,商業應用風險大。國內寒武紀開發的Cambricon系列處理器就在此列中,華為海思的麒麟980處理器搭載的NPU就是寒武紀的處理器IP。
整體來看,短期GPU仍然主導AI芯片市場,GPGA使用更為廣泛。長期來看GPU、FPGA和ASIC三大技術路線將并存。GPU主要方向是高級復雜算法和通用型人工智能平臺,FPGA在垂直領域有較大空間,ASIC長遠來看適用于面向各種場景的定制化需求。
目前國內人工智能芯片行業發展處于起步階段,在GPU和DSP設計上處于追趕狀態。但全球芯片生態上并沒有形成全封閉式壟斷,國內芯片廠商尤其是專用芯片設計廠商,還是存在彎道超車的機會,其主打的應用場景為云端數據中心、自動駕駛、智能家居和機器人領域。隨著5G和物聯網等應用的成熟落地,相關芯片產品的市場空間將進一步擴大。
責任編輯人:CC
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237567 -
人工智能芯片
+關注
關注
1文章
119瀏覽量
29065
發布評論請先 登錄
相關推薦
評論