精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Face++ Detection Team在2018年做COCO skeleton的工作

電子工程師 ? 來源:lq ? 2019-01-20 09:15 ? 次閱讀

本文主要介紹了 Face++DetectionTeam 在 2018 年做 COCO skeleton 的工作。

Background

人體關(guān)鍵點(diǎn)檢測(cè)(Human Keypoint Detection)又稱為人體姿態(tài)識(shí)別,旨在準(zhǔn)確定位圖像之中人體關(guān)節(jié)點(diǎn)的位置,是人體動(dòng)作識(shí)別、人體行為分析、人機(jī)交互的前置任務(wù)。作為當(dāng)前計(jì)算機(jī)視覺不可或缺的熱門研究領(lǐng)域之一,人體姿態(tài)識(shí)別有著大量的落地場(chǎng)景和廣闊的應(yīng)用前景,現(xiàn)有及可期的場(chǎng)景應(yīng)用有人體步態(tài)識(shí)別、體感游戲、AI 美體、虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、康復(fù)訓(xùn)練、體育教學(xué)等等,可廣泛賦能于游戲、手機(jī)、醫(yī)療、教育、數(shù)字現(xiàn)實(shí)等不同領(lǐng)域。

人體關(guān)鍵點(diǎn)檢測(cè)任務(wù)對(duì)于現(xiàn)實(shí)生活有著很大的潛在用途,目前公開的比賽中最權(quán)威的是 MS COCO Keypoint track 的比賽,也是該領(lǐng)域最有挑戰(zhàn)的比賽,參賽隊(duì)不乏 Facebook,Google 及微軟這樣的國(guó)際巨頭,也不乏 CMU 等頂尖研究機(jī)構(gòu),是該領(lǐng)域最先進(jìn)方法的試金石。曠視科技 Detection 組在2017,2018 年兩次奪得該比賽的冠軍,2017 年曠視 COCO Keypoint 比賽冠軍工作 CPN 在業(yè)界具有深遠(yuǎn)影響,并獲得廣泛使用。這里,我們將介紹曠視 2018 年 COCO Keypoint 比賽奪冠的工作。

人體姿態(tài)識(shí)別主流方法目前分為兩種:?jiǎn)坞A段和多階段,雖然后者遵照從粗糙到精細(xì)的邏輯更貼合任務(wù)本質(zhì),但是目前表現(xiàn)似乎沒有優(yōu)于單階段方法,我們認(rèn)為,目前多階段方法差強(qiáng)人意的性能主要?dú)w因于多種不合理的設(shè)計(jì)。我們的工作從 1)網(wǎng)絡(luò)設(shè)計(jì)、2)特征流、3)損失函數(shù)入手提出一系列改進(jìn)措施,工作成果在 MS COCO Keypoint 數(shù)據(jù)集上超越現(xiàn)有方法取得當(dāng)前最優(yōu)結(jié)果,論文已公開于 Arxiv,鏈接請(qǐng)見:arxiv.org/abs/1901.0014

Introduction

圖1

深度卷積網(wǎng)絡(luò)出現(xiàn)之后,人體姿態(tài)識(shí)別飛速發(fā)展。現(xiàn)階段最優(yōu)方法[1,2]網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單,多是采用單階段網(wǎng)絡(luò)設(shè)計(jì),比如 2017 COCO Keypoint 挑戰(zhàn)賽冠軍方法[1]采用基于 ResNet-Inception 的網(wǎng)絡(luò)結(jié)構(gòu),最新Simple Baseline[2] 采用 ResNet 網(wǎng)絡(luò)結(jié)構(gòu)。另一種網(wǎng)絡(luò)結(jié)構(gòu)則采用多階段網(wǎng)絡(luò)設(shè)計(jì),即把一個(gè)輕量級(jí)網(wǎng)絡(luò)作為單元網(wǎng)絡(luò),接著將其簡(jiǎn)單地堆疊到多階段。

直觀上講,多階段的天然逐級(jí)優(yōu)化特性會(huì)更適用于這個(gè)任務(wù),但是當(dāng)前存在的多階段網(wǎng)絡(luò)并沒有單階段網(wǎng)絡(luò)在 COCO 上表現(xiàn)好。我們?cè)噲D研究這一挑戰(zhàn)性問題,提出當(dāng)前多階段網(wǎng)絡(luò)的欠佳表現(xiàn)主要是由于設(shè)計(jì)不足導(dǎo)致的,并可通過一系列 1)網(wǎng)絡(luò)結(jié)構(gòu)、2)特征流、3)損失函數(shù)方面的創(chuàng)新性優(yōu)化,最大化發(fā)掘多階段網(wǎng)絡(luò)的潛力,實(shí)現(xiàn)目前最先進(jìn)的效果。

因此,我們提出新型的多階段姿態(tài)估計(jì)網(wǎng)絡(luò) MSPN,具體改進(jìn)有 3 個(gè)方面:

目前多階段網(wǎng)絡(luò)里的單元網(wǎng)絡(luò)離最優(yōu)比較遠(yuǎn),使用已經(jīng)驗(yàn)證的網(wǎng)絡(luò)(如 Resnet)要比主流的多階段方法(如 Hourglass)采用的輕量級(jí)網(wǎng)絡(luò)好很多,究其原因主要是下采樣 Encoder 需要承載更多內(nèi)容,而輕量級(jí)網(wǎng)絡(luò)滿足不了。

由于重復(fù)下采樣,上采樣會(huì)丟失信息從而不利于學(xué)習(xí),我們提出融合多階段特征以加強(qiáng)信息流動(dòng),來緩解這一問題。

我們觀察到關(guān)節(jié)點(diǎn)的定位是逐級(jí)精細(xì)優(yōu)化的,因此提出由粗到精的學(xué)習(xí)策略,并采用多尺度監(jiān)督提升訓(xùn)練。由圖 1 可知,當(dāng)提升單階段網(wǎng)絡(luò)容量時(shí),精度會(huì)趨近于飽和,而增長(zhǎng)遇到瓶頸;對(duì)于目前主流的多階段網(wǎng)絡(luò),當(dāng)堆疊多于 2 個(gè)單元網(wǎng)絡(luò)后,精度提升非常有限。對(duì)于我們提出的 MSPN,隨著單元網(wǎng)絡(luò)的堆疊數(shù)增加,精度會(huì)持續(xù)提升。

在 MS COCO 基準(zhǔn)上,MSPN 在 test-dev 數(shù)據(jù)集上獲得 76.1 AP;在 MS COCO 2018 中,test-dev 達(dá)到 78.1 AP,test-challenge 76.4 AP, 相比去年冠軍提升了 4.3 AP。

--------多階段網(wǎng)絡(luò)---------

圖2

多階段姿態(tài)估計(jì)網(wǎng)絡(luò) MSPN 如圖 2 所示。它采用自上向下的框架,即首先使用人體檢測(cè)算法給出人體框,據(jù)此摳圖,并進(jìn)行單人人體姿態(tài)估計(jì)。如上所述,MSPN 的新突破有 3 點(diǎn):第一,使用圖像分類表現(xiàn)較好的網(wǎng)絡(luò)(如 ResNet)作為多階段網(wǎng)絡(luò)的單元網(wǎng)絡(luò);第二,提出逐階段傳遞的信息聚集方式,降低信息損失;第三,引入由粗到精的監(jiān)督,并進(jìn)行多尺度監(jiān)督。

------有效的單階段子單元網(wǎng)絡(luò)設(shè)計(jì)-----

表1

目前主流的多階段網(wǎng)絡(luò)全部基于 Hourglass 變體。從表 1 可知,Hourglass 在重復(fù)下采樣和上采樣的過程中,卷積層的通道數(shù)是相同的。這是因?yàn)楦邔诱Z(yǔ)義信息更強(qiáng),需要更多通道表征。

下采樣時(shí),Hourglass 變體會(huì)導(dǎo)致特征編碼(Encoder)無法很好地表達(dá)特征,從而造成一定程度上的特征信息丟失。相比于下采樣,上采樣很難更優(yōu)地表征特征,所以增加下采樣階段的網(wǎng)絡(luò)能力對(duì)整體網(wǎng)絡(luò)會(huì)更有效。

--------------跨階段特征融合-------------

圖3

多階段網(wǎng)絡(luò)在重復(fù)的上采樣和下采樣過程中,很容易造成信息流失,我們提出了一種有效的跨階段特征融合方法來應(yīng)對(duì)這一現(xiàn)象。如圖 3 所示,上一階段上、下采樣的特征經(jīng)過 1x1 卷積相加到后一階段下采樣部分,從而實(shí)現(xiàn)多階段之間的特征融合,有效緩解特征流失。

---------------由粗到精監(jiān)督--------------

圖4

人體姿態(tài)估計(jì)如果要定位較有挑戰(zhàn)性的關(guān)節(jié)點(diǎn)(如隱藏關(guān)節(jié)點(diǎn))需要較強(qiáng)的領(lǐng)域上下文信息。同時(shí),對(duì)于基于回歸 heatmap 的任務(wù),作為 GT 的高斯核越小,回歸精度越準(zhǔn)。考慮到以上兩點(diǎn),并結(jié)合多階段網(wǎng)絡(luò)的自身逐級(jí)遞進(jìn)優(yōu)化的特性,我們提出基于多階段的由粗到精的監(jiān)督方式。每個(gè)階段方式的監(jiān)督heatmap的高斯核逐漸減小,可較理想地兼顧領(lǐng)域上下文信息和精準(zhǔn)度。由于中間監(jiān)督對(duì)于深度神經(jīng)網(wǎng)絡(luò)有較好效果[3],我們?cè)诿總€(gè)階段內(nèi)部也采用了多尺度的中間監(jiān)督。

-------------實(shí)驗(yàn)-------------

實(shí)驗(yàn)中,我們使用 MegDet [4]獲得人體檢測(cè)框,并使用 COCO(80 類)之中人這一類的結(jié)果作為人體框結(jié)果,沒有單獨(dú)針對(duì)人進(jìn)行訓(xùn)練。摳圖之前,框擴(kuò)展為高寬 4:3 的比例。訓(xùn)練中,我們采用 Adam 作為優(yōu)化策略,初始學(xué)習(xí)率為 5e-4,Weight Decay 為 1e-5。數(shù)據(jù)增強(qiáng)方面,主要采用翻轉(zhuǎn)、旋轉(zhuǎn)(-45度~+45度)、尺度變換(0.7~1.35)。姿態(tài)估計(jì)網(wǎng)絡(luò)圖像輸入尺寸為 384x288。消融實(shí)驗(yàn)中,圖像輸入尺寸為 256x192。測(cè)試方面,沿用 [5] 中的策略,即采用翻轉(zhuǎn)求平均,最大值位置向次大值位置偏移 1/4 作為最終位置。所有消融實(shí)驗(yàn)在 COCO minival 上進(jìn)行。

消融實(shí)驗(yàn)

多階段網(wǎng)絡(luò)

我們通過一系列實(shí)驗(yàn)驗(yàn)證多階段網(wǎng)絡(luò)設(shè)計(jì)的重要性。

表2

首先,我們通過實(shí)驗(yàn)觀察單階段網(wǎng)絡(luò)增加模型復(fù)雜度的表現(xiàn)。從表 2 可知,ResNet-50 作為 Backbone 的單階段網(wǎng)絡(luò)精度可以達(dá)到 71.5,ResNet-101 可以提升 1.6 個(gè)點(diǎn),但是繼續(xù)往高增加復(fù)雜度,精度的提升幅度逐漸變小,趨近于飽和。

表3

我們同時(shí)對(duì)比了當(dāng)前主流的多階段網(wǎng)絡(luò) Hourglass 與該工作在精度提升方面的差異。由表 3 可知,Hourglass 在第 2 個(gè)階段以上疊加新階段提升非常有限:從 2 個(gè)階段到 8 個(gè)階段,計(jì)算量增加 3 倍,而精度只漲了 0.7 AP。相比于 Hourglass 的增長(zhǎng)受限,MSPN 從第 2 個(gè)階段以上疊加新階段會(huì)持續(xù)提升精度。

為驗(yàn)證我們對(duì)多階段網(wǎng)絡(luò)有效改進(jìn)的泛化性,我們嘗試把其他網(wǎng)絡(luò)作為單元網(wǎng)絡(luò)。如表 4,兩階段的 ResNet-18 會(huì)稍高于相當(dāng)計(jì)算量的單階段 ResNet-50 網(wǎng)絡(luò)。4 階段小計(jì)算量的 X-ception 網(wǎng)絡(luò)會(huì)比同計(jì)算量單階段的大計(jì)算量的 X-ception 網(wǎng)絡(luò)高出近 1 AP。

表4

跨階段特征融合以及由粗到精監(jiān)督

表5

表 5 的實(shí)驗(yàn)可以驗(yàn)證跨階段特征融合以及由粗到精監(jiān)督的有效性。對(duì)于 4 階段的 Hourglass 和 2 階段的 MSPN 借助以上兩種策略均實(shí)現(xiàn)漲點(diǎn)。

------------實(shí)驗(yàn)結(jié)果-------------

表6

表7

表 6 和表 7 分別對(duì)比 MSPN 與當(dāng)前最優(yōu)方法在 COCO test-dev 數(shù)據(jù)集和 COCO test-challenge 數(shù)據(jù)集上的精度差異。可以看出,MSPN 均超過當(dāng)前最優(yōu)方法,在 test-dev 上領(lǐng)先2.3 AP,在 test-challenge上領(lǐng)先 1.9 AP。

----------------總結(jié)---------------

我們提出了針對(duì)人體姿態(tài)估計(jì)更有效的多階段網(wǎng)絡(luò)設(shè)計(jì)思想,并用充分的實(shí)驗(yàn)驗(yàn)證其有效性,該網(wǎng)絡(luò)在 COCO 數(shù)據(jù)集上突破當(dāng)前的精度瓶頸,實(shí)現(xiàn)了新的 state-of-the-art。我們同時(shí)也驗(yàn)證了該工作所涉及的多階段網(wǎng)絡(luò)設(shè)計(jì)思想的泛化性。

--------------結(jié)果例圖-----------

圖5

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人機(jī)交互
    +關(guān)注

    關(guān)注

    12

    文章

    1201

    瀏覽量

    55329
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7523

    瀏覽量

    88654
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1205

    瀏覽量

    24649

原文標(biāo)題:COCO 2018 Keypoint冠軍算法解讀

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    發(fā)布一個(gè)基于face++的人臉識(shí)別程序

    1、使用之前首先要去face++的官網(wǎng)注冊(cè)一個(gè)帳號(hào),獲取key和secret2、然后進(jìn)入程序設(shè)置key和secret3、然后還要進(jìn)入管理,創(chuàng)建你要識(shí)別的人物,就是往服務(wù)器上次face(圖片),要確保
    發(fā)表于 02-16 00:05

    Face ID也是無法工作

    對(duì)此,蘋果公司也曾進(jìn)行過解釋,蘋果軟件工程高級(jí)副總裁Craig Federighi曾表示,Face ID具備唯一性,僅支持“一機(jī)一臉”,用戶無法系統(tǒng)中錄入多個(gè)人臉。不僅如此,系統(tǒng)必須是同時(shí)捕捉
    發(fā)表于 12-20 03:40

    Face ID也是無法工作

    對(duì)此,蘋果公司也曾進(jìn)行過解釋,蘋果軟件工程高級(jí)副總裁Craig Federighi曾表示,Face ID具備唯一性,僅支持“一機(jī)一臉”,用戶無法系統(tǒng)中錄入多個(gè)人臉。不僅如此,系統(tǒng)必須是同時(shí)捕捉
    發(fā)表于 01-06 01:28

    opencv和face++如何進(jìn)行人臉檢測(cè)嗎?

    網(wǎng)上的教程都是人臉上加個(gè)框框,進(jìn)行人臉識(shí)別,而不是進(jìn)行人臉檢測(cè)。請(qǐng)問有誰(shuí)嘗試過和face++進(jìn)行交互,能夠識(shí)別攝像頭前的人是預(yù)存的人,嗯,類似于人臉開密碼箱那種的。但是又想加上一部檢測(cè)到運(yùn)行拍照發(fā)郵件那個(gè)?
    發(fā)表于 06-10 09:28

    2016高交會(huì)思必馳攜手曠視Face++展現(xiàn)人工智能技術(shù)力量

    21日上午,思必馳與曠視Face++聯(lián)合主辦、物聯(lián)網(wǎng)咖啡協(xié)辦的人工智能產(chǎn)業(yè)化沙龍《讀臉·對(duì)話,AI技術(shù)風(fēng)暴》正式開啟,蘿卜科技與神州云海大力支持,眾多業(yè)內(nèi)權(quán)威媒體、合作伙伴、行業(yè)專家出席該沙龍,共同探討語(yǔ)音識(shí)別與交互、圖像識(shí)別與機(jī)器視覺等前沿的人工智能技術(shù)力量。
    發(fā)表于 11-21 20:22 ?972次閱讀

    人臉識(shí)別技術(shù)大總結(jié)1—Face Detection Alignment

    介紹人臉識(shí)別的四大塊:Face detection, alignment, verification and identification(recognization),本別代表從一張圖中識(shí)別
    發(fā)表于 11-16 13:52 ?5300次閱讀

    team+提出2018企業(yè)實(shí)時(shí)通訊4大市場(chǎng)趨勢(shì)

    數(shù)碼化的市場(chǎng)將會(huì)將會(huì)進(jìn)一步的完善,根據(jù)IDC預(yù)測(cè)超過55%GDP貢獻(xiàn)都是來源于數(shù)碼服務(wù)產(chǎn)品與技術(shù),隨著物聯(lián)網(wǎng)強(qiáng)大的支出,軟件支出成長(zhǎng)速度將快于硬件發(fā)展速度。企業(yè)協(xié)作通訊軟件需求快速成長(zhǎng),team+發(fā)布2018企業(yè)協(xié)作實(shí)時(shí)通訊4大關(guān)鍵趨勢(shì)。
    發(fā)表于 01-08 10:53 ?1507次閱讀

    哪些公司入股曠視科技Face++

    曠視科技成立于2011,主要做計(jì)算機(jī)視覺相關(guān)技術(shù)研發(fā)與應(yīng)用落地,最早以“Face++”的名字為外界熟知。曠視科技創(chuàng)業(yè)之初獲得了聯(lián)想之星天使融資;2013獲得創(chuàng)新工場(chǎng)百萬(wàn)美元 A 輪投資;2015
    的頭像 發(fā)表于 03-14 10:13 ?3.1w次閱讀

    曠視科技face++股東名單_曠視科技face++歷史幾輪融資情況

    曠視科技成立于2011,是一家專注于圖像識(shí)別和深度學(xué)習(xí)的技術(shù)公司,被外界熟知為“Face++”,是國(guó)內(nèi)人臉識(shí)別領(lǐng)域知名的創(chuàng)業(yè)公司。曠視科技目前的主要業(yè)務(wù)來自于安防、金融、移動(dòng)應(yīng)用三個(gè)領(lǐng)域。這也
    的頭像 發(fā)表于 03-14 11:04 ?5.5w次閱讀

    Megvii Face++面部識(shí)別技術(shù)介紹

    Megvii是一家全球舞臺(tái)上崛起的中國(guó)創(chuàng)業(yè)公司,擁有Face ++面部識(shí)別技術(shù),該技術(shù)已被部署阿里巴巴和G20峰會(huì)等地的監(jiān)控應(yīng)用中。
    的頭像 發(fā)表于 11-23 06:21 ?7899次閱讀

    人工智能及相關(guān)技術(shù)未來20 或?qū)⑷〈袊?guó)現(xiàn)有約26%的工作崗位

    2018,是屬于人工智能的一,僅僅是國(guó)內(nèi),就崛起了包括像曠視科技Face++、極鏈科技、優(yōu)必選科技這樣高速發(fā)展的人工智能企業(yè),AI正在
    發(fā)表于 01-08 09:50 ?1387次閱讀
    人工智能及相關(guān)技術(shù)<b class='flag-5'>在</b>未來20<b class='flag-5'>年</b> 或?qū)⑷〈袊?guó)現(xiàn)有約26%的<b class='flag-5'>工作</b>崗位

    萬(wàn)物智聯(lián)時(shí)代——2018AIOT產(chǎn)業(yè)藍(lán)皮書正式發(fā)布

    一面是資本寒冬下,而另一面卻是部分企業(yè)拿錢拿到手軟。2018商湯科技獲得來自軟銀愿景基金的一筆10億美元融資,曠視科技(Face++)拿到了中風(fēng)投領(lǐng)投的4.6億美元融資,大疆新一輪10億美元融資采用競(jìng)價(jià)方式,成為名副其實(shí)的強(qiáng)勢(shì)
    的頭像 發(fā)表于 01-09 09:11 ?3605次閱讀
    萬(wàn)物智聯(lián)時(shí)代——<b class='flag-5'>2018</b><b class='flag-5'>年</b>AIOT產(chǎn)業(yè)藍(lán)皮書正式發(fā)布

    艾邁斯半導(dǎo)體與Face++攜手打造領(lǐng)先的3D技術(shù)

    艾邁斯半導(dǎo)體光學(xué)傳感器解決方案執(zhí)行副總裁兼總經(jīng)理 Ulrich Huewels 表示:“消費(fèi)者熱衷于購(gòu)買具有用戶臉部識(shí)別等重要功能的產(chǎn)品,并為有這樣的機(jī)會(huì)激動(dòng)不已。現(xiàn)在,通過將我們的 3D 傳感系統(tǒng)與 Face++ 技術(shù)關(guān)聯(lián),制造商能夠快速、順利地將這些熱門功能添加到他們的產(chǎn)品中。
    的頭像 發(fā)表于 01-09 09:30 ?3442次閱讀

    PCB Tandy CoCo EPROM墨盒設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《PCB Tandy CoCo EPROM墨盒設(shè)計(jì).zip》資料免費(fèi)下載
    發(fā)表于 06-12 11:52 ?0次下載
    PCB Tandy <b class='flag-5'>CoCo</b> EPROM墨盒設(shè)計(jì)

    低亮度人臉檢測(cè)、附源碼——CVPR2021之 Low Light Face Detection【一文讀懂】

    Adaptation for Low Light Face Detection 用于弱光人臉檢測(cè)的聯(lián)合高低自適應(yīng)算法 https://github.com/daooshee/HLA-Face
    的頭像 發(fā)表于 07-03 15:43 ?1059次閱讀
    低亮度人臉檢測(cè)、附源碼——CVPR2021之 Low Light <b class='flag-5'>Face</b> <b class='flag-5'>Detection</b>【一文讀懂】