精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用基于SRAM的測試芯片實現(xiàn)加速AI推理

石玉蘭 ? 來源:小點zze ? 作者:小點zze ? 2022-07-21 15:50 ? 次閱讀

瑞薩電子開發(fā)了一種新的內(nèi)存處理器 (PIM) 技術(shù),用于在低功耗邊緣設(shè)備中加速 AI 推理。用于基于 SRAM 技術(shù)的測試芯片實現(xiàn)了 8.8 TOPS/W 的運行卷積神經(jīng)網(wǎng)絡(luò) (CNN) 工作負載,這是最常用于圖像識別的算法類型。

瑞薩電子現(xiàn)有一代 AI 推理加速器基于其動態(tài)可重構(gòu)處理器 (DRP) 架構(gòu),達到 1 TOPS/W 量級,足以在終端節(jié)點實現(xiàn)實時圖像識別。該公司表示,新的 PIM 技術(shù)在 TOPS/W 方面幾乎提高了一個數(shù)量級,并且可能成為在端點實施增量學(xué)習(xí)的基礎(chǔ)。

內(nèi)存處理器是一種越來越流行的人工智能推理工作負載技術(shù),其中涉及將大量輸入數(shù)據(jù)與權(quán)重因子相乘。在 PIM 設(shè)備中,當(dāng)讀取數(shù)據(jù)時,在存儲器本身中執(zhí)行乘法累加 (MAC) 操作。

在瑞薩電子設(shè)備中,存儲權(quán)重的存儲單元可以通過控制單元的輸出開關(guān)與輸入數(shù)據(jù)相乘,從而控制輸出電流。測量位線中的電流然后有效地將所有輸出加在一起。以這種方式在內(nèi)存中執(zhí)行 MAC 操作,通過避免不必要的數(shù)據(jù)傳輸,消除了內(nèi)存和處理器之間的瓶頸。

三元SRAM

在接受 EETimes 的獨家采訪時,瑞薩電子高級首席工程師 Koichi Nose 解釋了用于提高精度和降低功耗的新技術(shù)。

“傳統(tǒng)的內(nèi)存處理器技術(shù)無法為大規(guī)模計算提供足夠的精度,”Nose 說,并強調(diào)了傳統(tǒng)上需要解決的變通辦法,以規(guī)避由工藝變化引起的低可靠性。“二進制數(shù)據(jù)也不足以表達一些復(fù)雜的神經(jīng)網(wǎng)絡(luò)……它會導(dǎo)致準確性下降。”

新的 PIM 技術(shù)是三元的,這意味著每個單元都具有三種狀態(tài):-1、0 或 1。Nose 解釋說,這允許表示比二進制單元更復(fù)雜的數(shù)據(jù)。

如果三進制存儲單元保持+1或-1,則電流可以流入位線,但如果存儲單元存儲0,則沒有電流流動,這有助于保持低功耗。

“此外,重量數(shù)據(jù)可以很容易地擴展到任意位數(shù),”Nose 說。“神經(jīng)網(wǎng)絡(luò)中的權(quán)重數(shù)據(jù)是多位信息,一個零或一個大的正負值。在二進制單元中表達多位符號信息很困難。所提出的存儲器電路可以通過利用三元單元和簡單的數(shù)字計算塊的組合來輕松表達任意符號位操作......因為這可以支持每個用戶所需的不同計算精度,用戶可以優(yōu)化精度和精度之間的平衡能量消耗。”

能量消耗

Nose 表示,傳統(tǒng)的 PIM 拓撲使用 ADC 將位線電流轉(zhuǎn)換為輸出數(shù)據(jù)值,但盡管 ADC 很有效,但它們耗電大且占用寶貴的芯片面積。

瑞薩電子的 PIM 技術(shù)使用標準 SRAM 宏中的 1 位讀出放大器作為比較器,與可靈活控制電流的復(fù)制單元(相當(dāng)于存儲單元的當(dāng)前生成部分)結(jié)合使用。將復(fù)制單元電流與三元單元電流進行比較有效地檢測三元單元的電流輸出。

零檢測器還有助于降低功耗。如果 MAC 運算結(jié)果等于 0,則停止比較器的操作以節(jié)省能量。

“在 [典型] 神經(jīng)網(wǎng)絡(luò)電路中,幾乎所有節(jié)點都分配為零;只有少量的神經(jīng)元被激活,大約 1%。所以幾乎所有的計算結(jié)果都歸零,”Nose 說。“激活零檢測器電路會關(guān)閉比較器并有助于降低功耗。通過將比較器 AD 轉(zhuǎn)換器技術(shù)和零檢測器技術(shù)相結(jié)合,可以將功耗降低一個數(shù)量級。”

工藝變化

在 SRAM 陣列中,制造工藝的變化經(jīng)常導(dǎo)致故障。由于這些工藝變化,當(dāng)將數(shù)據(jù)寫入具有顯著不同電氣特性的單個單元時,就會出現(xiàn)錯誤。

“為了避免這個問題,我們使用了神經(jīng)網(wǎng)絡(luò)的相同特征——幾乎所有節(jié)點都分配為零,”他說。“我們可以通過改組數(shù)據(jù)來避免計算錯誤,以便將零存儲在 [不利] 受影響的單元格中。”

在三進制存儲單元中,如果存儲零,則位線中沒有電流流動,因此求和結(jié)果不依賴于單元電流。

如何識別受到不利影響的細胞?

“我們正在開發(fā)其他一些錯誤單元檢測方法,但在這個芯片中,我們使用了一種簡單的方法,”他說。“我們測量神經(jīng)網(wǎng)絡(luò)的輸出并檢查結(jié)果是否正確,以識別[不存儲]正確輸出值的錯誤單元。”

測試芯片

Renesas 的 3×3 mm 測試芯片基于 12nm 工藝技術(shù)構(gòu)建,由四個集群組成,每個集群可以同時運行不同的 AI 工藝。在每個集群中,神經(jīng)網(wǎng)絡(luò)權(quán)重數(shù)據(jù)存儲在 PIM 塊中,MAC 運算結(jié)果存儲在標準 SRAM 塊中。

測試芯片包含 4 Mb 的 PIM 計算內(nèi)存和 1.5 MB 的 SRAM,足以在不使用外部存儲器的情況下評估緊湊型 CNN。該芯片實現(xiàn)了8.8 TOPS/W的功率效率。

原型 AI 模塊中的測試芯片的簡單演示還結(jié)合了小型電池、微控制器、相機和其他外圍設(shè)備,表明只需 5 mW 即可實現(xiàn)用于實時人員檢測的推理。

審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    453

    文章

    50406

    瀏覽量

    421843
  • sram
    +關(guān)注

    關(guān)注

    6

    文章

    763

    瀏覽量

    114633
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30146

    瀏覽量

    268421
收藏 人收藏

    評論

    相關(guān)推薦

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的
    的頭像 發(fā)表于 10-29 14:12 ?206次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應(yīng)用

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無論是在復(fù)雜的
    的頭像 發(fā)表于 10-27 10:03 ?166次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b>訓(xùn)練與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案

    李開復(fù):中國擅長打造經(jīng)濟實惠的AI推理引擎

    10月22日上午,零一萬物公司的創(chuàng)始人兼首席執(zhí)行官李開復(fù)在與外媒的交流中透露,其公司旗下的Yi-Lightning(閃電模型)在推理成本上已實現(xiàn)了顯著優(yōu)勢,比OpenAI的GPT-4o模型低了31倍。他強調(diào),中國擅長打造經(jīng)濟實惠的AI
    的頭像 發(fā)表于 10-22 16:54 ?317次閱讀

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    提高成本效率。HyperAccel 針對新興的生成式 AI 應(yīng)用提供超級加速芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個快速、高效且低成本的推理系統(tǒng),
    的頭像 發(fā)表于 09-18 09:37 ?330次閱讀
    AMD助力HyperAccel開發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    摩爾線程攜手東華軟件完成AI大模型推理測試與適配

    近日,摩爾線程與東華軟件云筑AI創(chuàng)新中心宣布,雙方已完成大模型推理測試與適配。依托摩爾線程的全功能GPU國產(chǎn)算力,東華軟件打造安全可信的基于私有化大模型的“智多型(A.I.Cogniflex)”
    的頭像 發(fā)表于 07-31 10:51 ?692次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細探討,內(nèi)容將涵蓋模型壓縮、
    的頭像 發(fā)表于 07-24 11:38 ?776次閱讀

    英特爾助力京東云CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    英特爾助力京東云CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈
    的頭像 發(fā)表于 05-27 11:50 ?500次閱讀
    英特爾助力京東云<b class='flag-5'>用</b>CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    Marvell獲AI芯片訂單,2026財年將貢獻25億美元營收

    根據(jù)Marvell透露,已經(jīng)開始為客戶A和B批量生產(chǎn)AI訓(xùn)練及推理加速器,且預(yù)期最早于2025年和2026年實現(xiàn)對客戶A和C的AI
    的頭像 發(fā)表于 04-15 15:38 ?515次閱讀

    開發(fā)者手機 AI - 目標識別 demo

    Network Runtime 神經(jīng)網(wǎng)絡(luò)運行時,作為中間橋梁連通上層AI推理框架和底層加速芯片實現(xiàn)A
    發(fā)表于 04-11 16:14

    Groq LPU崛起,AI芯片主戰(zhàn)場從訓(xùn)練轉(zhuǎn)向推理

    人工智能推理的重要性日益凸顯,高效運行端側(cè)大模型及AI軟件背后的核心技術(shù)正是推理。不久的未來,全球芯片制造商的主要市場將全面轉(zhuǎn)向人工智能推理
    的頭像 發(fā)表于 02-29 16:46 ?1103次閱讀

    使用NVIDIA Triton推理服務(wù)器來加速AI預(yù)測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預(yù)測。
    的頭像 發(fā)表于 02-29 14:04 ?547次閱讀

    AI算法在RZ/V芯片中的移植推理流程

    之前文章已介紹了一些AI算法Demo的應(yīng)用 ,我們提供從模型訓(xùn)練到RZ/V系列嵌入式端推理應(yīng)用的完整流程。整體流程如下圖所示。
    的頭像 發(fā)表于 12-20 12:21 ?1022次閱讀
    <b class='flag-5'>AI</b>算法在RZ/V<b class='flag-5'>芯片</b>中的移植<b class='flag-5'>推理</b>流程

    芯曜途科技發(fā)布適用于MEMS傳感器陣列的STN100近感AI推理芯片

    近日,芯曜途科技發(fā)布了適用于MEMS傳感器陣列的STN100近感AI推理芯片
    的頭像 發(fā)表于 12-15 15:51 ?1051次閱讀

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    場景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)在圖像分類、目標識別、人臉識別、文字識別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    瞬變對AI加速卡供電的影響

    圖形處理單元(GPU)、張量處理單元(TPU)和其他類型的專用集成電路(ASIC)通過提供并行處理能力來實現(xiàn)高性能計算,以滿足加速人工智能(AI)訓(xùn)練和推理工作負載的需求 。
    的頭像 發(fā)表于 12-01 18:10 ?386次閱讀
    瞬變對<b class='flag-5'>AI</b><b class='flag-5'>加速</b>卡供電的影響