精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一篇實(shí)時(shí)性好準(zhǔn)確率高的論文:CornerNet-Lite

DPVg_AI_era ? 來(lái)源:lp ? 2019-04-23 10:50 ? 次閱讀

本文介紹一篇實(shí)時(shí)性好準(zhǔn)確率高的論文:CornerNet-Lite。該論文由普林斯頓大學(xué)幾位學(xué)者提出。目前CornerNet-Lite被認(rèn)為是目標(biāo)檢測(cè)(Object Detection)中 FPS和mAP trade-off的最佳算法。

之所以說(shuō):“吊打YOLOv3”,因?yàn)镃ornerNet-Lite在FPS和mAP上都超過(guò)了YOLOv3,具體詳見(jiàn)下文介紹。

《CornerNet-Lite: Efficient Keypoint Based Object Detection》

摘要

基于關(guān)鍵點(diǎn)的方法是目標(biāo)檢測(cè)中相對(duì)較新的范例,消除了對(duì)anchor boxes的需求并提供了簡(jiǎn)化的檢測(cè)框架?;贙eypoint的CornerNet在單級(jí)(single-stage)檢測(cè)器中實(shí)現(xiàn)了最先進(jìn)的精度。然而,這種準(zhǔn)確性來(lái)自高處理代價(jià)。在這項(xiàng)工作中,團(tuán)隊(duì)解決了基于關(guān)鍵點(diǎn)的高效目標(biāo)檢測(cè)問(wèn)題,并引入了CornerNet-Lite。

CornerNet-Lite是CornerNet的兩種有效變體的組合:CornerNet-Saccade,它使用注意機(jī)制消除了對(duì)圖像的所有像素進(jìn)行徹底處理的需要,以及引入新的緊湊骨干架構(gòu)的CornerNet-Squeeze。

這兩種變體共同解決了有效目標(biāo)檢測(cè)中的兩個(gè)關(guān)鍵用例:在不犧牲精度的情況下提高效率,以及提高實(shí)時(shí)效率的準(zhǔn)確性。CornerNet-Saccade適用于離線處理,將CornerNet的效率提高6.0倍,將COCO的效率提高1.0%。

CornerNet-Squeeze適用于實(shí)時(shí)檢測(cè),提高了流行的實(shí)時(shí)檢測(cè)器YOLOv3的效率和準(zhǔn)確性(CornerNet-Squeeze為34ms|34.4mAP;COCO上YOLOv3為39ms|33mAP)。

這些貢獻(xiàn)首次共同揭示了基于關(guān)鍵點(diǎn)的檢測(cè)對(duì)于需要處理效率的應(yīng)用的潛力。

背景

CornetNet 在 ECCV 2018 (oral)上橫空出世,引領(lǐng)一波基于關(guān)鍵點(diǎn)的目標(biāo)檢測(cè)狂潮(最近anchor-free盛行),但這類算法(很多one-stage)也有缺點(diǎn)。雖然mAP有很大提升,但速度上都遠(yuǎn)不能達(dá)到實(shí)時(shí)(有些論文就避而不談FPS了)。這其實(shí)可以看成學(xué)術(shù)階段的成果,但距離落地應(yīng)用還有一點(diǎn)距離。

而 本文CornetNet-Lite 是對(duì)CornetNet進(jìn)行優(yōu)化,提出了兩種算法:

CornerNet-Saccade

CornerNet-Squeeze

CVer作者Amusi認(rèn)為:

CornerNet-Saccade是在追求高準(zhǔn)確率(mAP)的同時(shí),盡可能提高速度(FPS)。即準(zhǔn)確率優(yōu)先,對(duì)標(biāo)CornerNet等算法。創(chuàng)新點(diǎn):引入Saccade思想

CornerNet-Squeeze是追求高實(shí)時(shí)性(FPS)的同時(shí),盡可能提高準(zhǔn)確率(mAP),即速度優(yōu)先,其對(duì)標(biāo)于YOLOv3等算法。創(chuàng)新點(diǎn):引入SqueezeNet優(yōu)化思想

正文

CornerNet-Saccade

人類視覺(jué)中的 Saccades(掃視運(yùn)動(dòng))是指用于固定不同圖像區(qū)域的一系列快速眼動(dòng)。在目標(biāo)檢測(cè)算法中,我們廣義地使用該術(shù)語(yǔ)來(lái)表示在推理期間選擇性地裁剪(crop)和處理圖像區(qū)域(順序地或并行地,像素或特征)。

CornerNet-Saccade中的saccades是single type and multi-object。CornerNet-Saccade檢測(cè)圖像中可能的目標(biāo)位置周圍的小區(qū)域內(nèi)的目標(biāo)。它使用縮小后的完整圖像來(lái)預(yù)測(cè)注意力圖和粗邊界框;兩者都提出可能的對(duì)象位置,然后,CornerNet-Saccade通過(guò)檢查以高分辨率為中心的區(qū)域來(lái)檢測(cè)目標(biāo)。它還可以通過(guò)控制每個(gè)圖像處理的最大目標(biāo)位置數(shù)來(lái)提高效率。具體流程如下圖所示。

CornerNet-Saccade設(shè)計(jì)了一種新的backbone:Hourglass-54(含3個(gè)hourglass模塊,深度為54)。原CornerNet中使用的是Hourglass-104(含2個(gè)hourglass模塊,深度為54)。

注:crop在CornerNet-Saccade中作用非常大

CornerNet-Squeeze

與專注于subset of the pixels以減少處理量的CornerNet-Saccade相比,而CornerNet-Squeeze探索了一種減少每像素處理量的替代方法。在CornerNet中,大部分計(jì)算資源都花在了Hourglass-104上。

Hourglass-104由殘差塊構(gòu)成,其由兩個(gè)3×3卷積層和跳連接(skip connection)組成。盡管Hourglass-104實(shí)現(xiàn)了很強(qiáng)的性能,但在參數(shù)數(shù)量和推理時(shí)間方面卻很耗時(shí)。為了降低Hourglass-104的復(fù)雜性,本文將來(lái)自SqueezeNet和MobileNets 的想法融入到 lightweight hourglass 架構(gòu)中。

主要操作是:

受SqueezeNet啟發(fā),CornerNet-Squeeze將residual block 替換為SqueezeNet中的Fire module

受MobileNet啟發(fā),CornerNet-Squeeze將第二層的3x3標(biāo)準(zhǔn)卷積替換為 3x3 深度可分離卷積(depth-wise separable convolution)

具體如下表所示:

實(shí)驗(yàn)結(jié)果

開(kāi)源代碼是基于PyToch1.0.0,在COCO數(shù)據(jù)集上進(jìn)行測(cè)試。測(cè)試硬件環(huán)境為:1080ti GPU + Intel Core i7-7700k CPU。

One-stage算法性能比較

CornerNet-Saccade算法性能比較

可見(jiàn)Hourglass-54要強(qiáng)于Hourglass-104,另外gt attention對(duì)漲點(diǎn)幫助很大

CornerNet-Squeeze算法性能比較

見(jiàn)證奇跡的時(shí)候來(lái)了!CornerNet-Squeeze吊打YOLOv3,因?yàn)榧词故?a href="http://www.nxhydt.com/soft/data/21-24/" target="_blank">C語(yǔ)言版本的YOLOv3,都已被全方位(mAP+FPS)超過(guò)。

注:日常期待一下YOLOv4,畢竟YOLOv3已經(jīng)是去年3月的"老人"了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    860

    瀏覽量

    47651
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4599

    瀏覽量

    92645
  • 開(kāi)源代碼
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    2931

原文標(biāo)題:吊打YOLOv3!普林斯頓大學(xué)提出CornerNet-Lite,已開(kāi)源

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NIUSB6009 采集準(zhǔn)確率的問(wèn)題?

    NIUSB6009 采集準(zhǔn)確率的問(wèn)題? 、本人做個(gè)中間繼電器電性能實(shí)驗(yàn)的裝置 1、PLC帶動(dòng)中間繼電器吸合和釋放,(吸合用時(shí)1.5秒,釋放用時(shí)1.5秒)周而復(fù)始的運(yùn)動(dòng)。 2、中間繼電器的觸頭負(fù)載
    發(fā)表于 09-23 15:59

    TF之LoR:基于tensorflow實(shí)現(xiàn)手寫(xiě)數(shù)字圖片識(shí)別準(zhǔn)確率

    TF之LoR:基于tensorflow實(shí)現(xiàn)手寫(xiě)數(shù)字圖片識(shí)別準(zhǔn)確率
    發(fā)表于 12-19 17:05

    基于RBM實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別準(zhǔn)確率

    DL之RBM:基于RBM實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別準(zhǔn)確率
    發(fā)表于 12-28 10:19

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?有學(xué)習(xí)資料或者matlab代碼可以讓我學(xué)習(xí)下嗎
    發(fā)表于 02-17 17:20

    如何提高Stm32F746G準(zhǔn)確率?

    你好帶時(shí)鐘的教程 3。如何提高準(zhǔn)確率?最好的祝福安杰伊
    發(fā)表于 01-12 07:26

    BOM準(zhǔn)確率提高方法

    BOM錯(cuò)誤造成的損失出現(xiàn)在產(chǎn)品制造、銷售和售后服務(wù)工作中,但根源在產(chǎn)品研發(fā)部門,因此BOM準(zhǔn)確率需要由專業(yè)部門進(jìn)行專門管理。
    發(fā)表于 06-13 10:37 ?5182次閱讀

    機(jī)器學(xué)習(xí)實(shí)用指南——準(zhǔn)確率與召回

    受試者工作特征(ROC)曲線是另個(gè)二分類器常用的工具。它非常類似與準(zhǔn)確率/召回曲線,但不是畫(huà)出準(zhǔn)確率對(duì)召回的曲線,ROC 曲線是真正例
    的頭像 發(fā)表于 06-19 15:20 ?2.1w次閱讀
    機(jī)器學(xué)習(xí)實(shí)用指南——<b class='flag-5'>準(zhǔn)確率</b>與召回<b class='flag-5'>率</b>

    AI可準(zhǔn)確識(shí)別罕見(jiàn)的遺傳綜合征,但要防止歧視濫用

    根據(jù)英國(guó)《自然·醫(yī)學(xué)》雜志8日在線發(fā)表的論文款人工智能在接受上萬(wàn)張真實(shí)患者面部圖像訓(xùn)練后,能夠以
    發(fā)表于 03-10 10:52 ?306次閱讀

    韓國(guó)研發(fā)套基于AI的醫(yī)療影像判讀系統(tǒng) 診斷準(zhǔn)確率比人類醫(yī)生近20%

    韓國(guó)研究小組研發(fā)了套基于AI的醫(yī)療影像判讀系統(tǒng),可以通過(guò)胸部X射線篩查肺癌等肺部疾病,診斷準(zhǔn)確率比人類醫(yī)生近20%。
    發(fā)表于 04-12 16:50 ?1857次閱讀

    盤(pán)點(diǎn)下mAP最高的目標(biāo)檢測(cè)算法

    要知道 Faster R-CNN已經(jīng)是2015年提出的論文了,而YOLOv3發(fā)表出來(lái)也已經(jīng)年多了。最近目標(biāo)檢測(cè)相關(guān)的論文,比較典型的有:SNIPER、CornerNet、Extrem
    的頭像 發(fā)表于 07-13 08:10 ?1.5w次閱讀
    盤(pán)點(diǎn)<b class='flag-5'>一</b>下mAP最高的目標(biāo)檢測(cè)算法

    搜狗推出多款新品AI錄音筆,實(shí)時(shí)轉(zhuǎn)寫(xiě)準(zhǔn)確率達(dá)98%

    據(jù)介紹,搜狗S1、E1兩款A(yù)I錄音筆產(chǎn)品均支持中英日韓德等10種語(yǔ)言、川粵津陜貴等10種方言的錄音和轉(zhuǎn)寫(xiě),實(shí)時(shí)轉(zhuǎn)寫(xiě)準(zhǔn)確率達(dá)98%。最遠(yuǎn)拾音距離可達(dá)10米。
    的頭像 發(fā)表于 02-26 16:53 ?2102次閱讀

    AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%

    這套邏輯和人類用眼睛、大腦、手臂工作的邏輯差不多,而且效率也足夠了。以塑料瓶為例,AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%,單張圖片的識(shí)別時(shí)間不到半秒鐘。
    的頭像 發(fā)表于 06-16 15:10 ?3227次閱讀

    訊飛AI錄音筆SR702擁有多語(yǔ)言轉(zhuǎn)寫(xiě)功能,轉(zhuǎn)寫(xiě)準(zhǔn)確率

    文字的實(shí)時(shí)轉(zhuǎn)寫(xiě)準(zhǔn)確率高達(dá)98%,相當(dāng)?shù)亟o力。今天我們就具體來(lái)看看它的這些功能。 多語(yǔ)言轉(zhuǎn)寫(xiě)功能,轉(zhuǎn)寫(xiě)準(zhǔn)確率 區(qū)別款錄音筆好壞的評(píng)判標(biāo)準(zhǔn)之
    的頭像 發(fā)表于 12-18 10:29 ?4302次閱讀

    ai人工智能回答準(zhǔn)確率

    人工智能(AI)回答的準(zhǔn)確率個(gè)相對(duì)的概念,會(huì)受到多個(gè)因素的影響,因此不能概而論地說(shuō)其準(zhǔn)確率或低。以下是對(duì)AI回答
    的頭像 發(fā)表于 10-17 16:30 ?2130次閱讀

    微機(jī)保護(hù)裝置預(yù)警功能的準(zhǔn)確率

    異常狀態(tài)。 微機(jī)保護(hù)裝置的預(yù)警功能準(zhǔn)確率是衡量其性能的重要指標(biāo),它直接關(guān)系到裝置能否及時(shí)準(zhǔn)確地檢測(cè)潛在的故障或異常情況,從而預(yù)防事故的發(fā)生。 準(zhǔn)確率影響因素: 1.硬件性能:高精度的傳感器和強(qiáng)大的數(shù)據(jù)處理單元直
    的頭像 發(fā)表于 11-03 16:10 ?127次閱讀