精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv6模型文件的輸入與輸出結(jié)構(gòu)

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-06-25 15:37 ? 次閱讀

YOLOv6人臉檢測(cè)模型

YOLOv6上次(應(yīng)該是很久以前)發(fā)布了一個(gè)0.3.1版本,支持人臉檢測(cè)與五點(diǎn)landmark調(diào)用,后來(lái)我就下載,想使用一下,發(fā)現(xiàn)居然沒(méi)有文檔,也沒(méi)有例子。但是官方有個(gè)infer.py文件是可以調(diào)用的,說(shuō)明這個(gè)模型文件應(yīng)該沒(méi)問(wèn)題。下載打開(kāi)模型文件的輸入與輸出結(jié)構(gòu)如下:

9294c64c-117e-11ee-962d-dac502259ad0.png

輸出格式8400x16,其中16的輸出表示為人臉框+landmark坐標(biāo)信息。xyxy, conf, cls, lmdks,前面四個(gè)是Box信息、后面是置信度與分類得分、最后是10個(gè)值五點(diǎn)XY坐標(biāo)

輸出解析順序

官方代碼與參考文檔給出的解析順序,xyxy, conf, cls, lmdks,這部分還有官方的參考文件:

https://github.com/meituan/YOLOv6/blob/yolov6-face/yolov6/core/inferer.py

92d37716-117e-11ee-962d-dac502259ad0.png

第110行就是這樣說(shuō)明的,于是我按上述格式一通解析,結(jié)果讓我崩潰了,輸入圖像與解析結(jié)果如下:

92ed582a-117e-11ee-962d-dac502259ad0.png

這個(gè)時(shí)候我才明白為什么這個(gè)發(fā)布了這么久,網(wǎng)上居然一篇文章關(guān)于YOLOv6人臉檢測(cè)的文章都沒(méi)有,網(wǎng)上的文章很多都是YOLOv5跟YOLOv7的人臉+Landmark檢測(cè),原因一切都是有原因的。 我debug一下,發(fā)現(xiàn)預(yù)測(cè)出來(lái)的16個(gè)值,只有最后兩個(gè)值的結(jié)果是小于或者等于1的,所以我當(dāng)時(shí)猜想16個(gè)順序應(yīng)該是:xyxy, lmdks, conf, cls,按照我猜測(cè)的順序我又改下代碼,然后直接運(yùn)行測(cè)試,奇跡出現(xiàn)了:

這張圖是AI生成的,如有雷同純屬巧合! 整個(gè)推理的流程跟YOLOv5、YOLOv6對(duì)象檢測(cè)一樣,就是后處理不同,所以附上后處理部分的代碼:

defwrap_detection(self,input_image,out_data):
confidences=[]
boxes=[]
kypts=[]
rows=out_data.shape[0]

image_width,image_height,_=input_image.shape

x_factor=image_width/640.0
y_factor=image_height/640.0

sd=np.zeros((5,2),dtype=np.float32)
sd[0:5]=(x_factor,y_factor)
sd=np.squeeze(sd.reshape((-1,1)),1)
#xyxy,lmdks,conf,cls,
forrinrange(rows):
row=out_data[r]
conf=row[14]
cls=row[15]
if(conf>0.25andcls>0.25):
confidences.append(conf)
x,y,w,h=row[0].item(),row[1].item(),row[2].item(),row[3].item()
left=int((x-0.5*w)*x_factor)
top=int((y-0.5*h)*y_factor)
width=int(w*x_factor)
height=int(h*y_factor)
box=np.array([left,top,width,height])
boxes.append(box)
kypts.append(np.multiply(row[4:14],sd))

indexes=cv.dnn.NMSBoxes(boxes,confidences,0.25,0.25)

result_confidences=[]
result_boxes=[]
result_kypts=[]

foriinindexes:
result_confidences.append(confidences[i])
result_boxes.append(boxes[i])
result_kypts.append(kypts[i])

returnresult_kypts,result_confidences,result_boxes

責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48346
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4670

    瀏覽量

    67760
  • 人臉檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    78

    瀏覽量

    16391

原文標(biāo)題:YOLOv6 人臉Landmark檢測(cè)

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Yolov5算法解讀

    ,這幾個(gè)模型結(jié)構(gòu)基本一樣,不同的是depth_multiple模型深度和width_multiple模型寬度這兩個(gè)參數(shù)。 yolov5主要
    的頭像 發(fā)表于 05-17 16:38 ?7413次閱讀
    <b class='flag-5'>Yolov</b>5算法解讀

    YOLOV7網(wǎng)絡(luò)架構(gòu)解讀

    繼美團(tuán)發(fā)布YOLOV6之后,YOLO系列原作者也發(fā)布了YOLOV7。
    的頭像 發(fā)表于 11-29 10:00 ?1610次閱讀
    <b class='flag-5'>YOLOV</b>7網(wǎng)絡(luò)架構(gòu)解讀

    maixcam部署yolov5s 自定義模型

    部分不一樣。 獲得自定義訓(xùn)練得到的yolov5s onnx模型 準(zhǔn)備自定義數(shù)據(jù)集(博主用的是VOC數(shù)據(jù)集) 數(shù)據(jù)集目錄結(jié)構(gòu)如下: └─VOC2028:自定義數(shù)據(jù)集 ├─Annotations存放
    發(fā)表于 04-23 15:43

    怎樣使用PyTorch Hub去加載YOLOv5模型

    圖像會(huì)自動(dòng)傳輸?shù)秸_的模型設(shè)備。靜音輸出模型可以靜默加載_verbose=False:輸入通道要加載具有 4 個(gè)輸入通道而不是默認(rèn)的 3 個(gè)
    發(fā)表于 07-22 16:02

    YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練

    1、YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練來(lái)自哪里  知識(shí)蒸餾 (KD)已被證明是一種用于訓(xùn)練緊湊密集預(yù)測(cè)模型的簡(jiǎn)單有效的工具。輕量級(jí)學(xué)生網(wǎng)絡(luò)通過(guò)
    發(fā)表于 10-09 16:25

    YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)解析

    1、YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)解析  YOLOv5針對(duì)不同大?。╪, s, m, l, x)的網(wǎng)絡(luò)整體架構(gòu)都是一樣的,只不過(guò)會(huì)在每個(gè)子模塊中采用不同的深度和寬度,  分別應(yīng)對(duì)yaml文件
    發(fā)表于 10-31 16:30

    全志V853 在 NPU 轉(zhuǎn)換 YOLO V3 模型

    原內(nèi)部格式表示文件,分別對(duì)應(yīng)原始模型文件yolov3.weights 和 yolov3.cfg創(chuàng)建 YML
    發(fā)表于 12-19 10:36

    yolov7 onnx模型在NPU上太慢了怎么解決?

    yolov7tiny.onnx。輸入大小為 224x224,但 npu 推理時(shí)間為 127 毫秒。好像太慢了。這個(gè)時(shí)間合理嗎?以下是我的onnx模型轉(zhuǎn)換步驟和我的onnxruntime執(zhí)行代碼: 1. 從 https
    發(fā)表于 04-04 06:13

    無(wú)法使用MYRIAD在OpenVINO trade中運(yùn)行YOLOv7自定義模型怎么解決?

    無(wú)法確定如何將 YOLOv7 模型的重量(.pt 文件)轉(zhuǎn)換為OpenVINO?中間表示 (IR) 并推斷有 MYRIAD 的 IR。 分辨率 轉(zhuǎn)換使用此 GitHub* 存儲(chǔ)庫(kù)
    發(fā)表于 08-15 08:29

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型輸出存在偏差是怎么回事?

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型
    發(fā)表于 09-19 06:26

    一個(gè)YOLO系列的算法實(shí)現(xiàn)庫(kù)YOLOU

    這里主要是對(duì)于YOLO系列經(jīng)典化模型的訓(xùn)練對(duì)比,主要是對(duì)于YOLOv5、YOLOv6、YOLOv7以及YOLOX的對(duì)比,部分模型還在訓(xùn)練之中
    的頭像 發(fā)表于 07-31 11:47 ?1663次閱讀

    關(guān)于YOLOU中模型的測(cè)試

    整個(gè)算法完全是以YOLOv5的框架進(jìn)行,主要包括的目標(biāo)檢測(cè)算法有:YOLOv3、YOLOv4、YOLOv5、YOLOv5-Lite、
    的頭像 發(fā)表于 08-16 10:24 ?746次閱讀

    一文徹底搞懂YOLOv8【網(wǎng)絡(luò)結(jié)構(gòu)+代碼+實(shí)操】

    從上面可以看出,YOLOv8 主要參考了最近提出的諸如 YOLOX、YOLOv6YOLOv7 和 PPYOLOE 等算法的相關(guān)設(shè)計(jì),本身的創(chuàng)新點(diǎn)不多,偏向工程實(shí)踐,主推的還是 ultralytics 這個(gè)框架本身。
    的頭像 發(fā)表于 06-15 17:15 ?1.1w次閱讀
    一文徹底搞懂<b class='flag-5'>YOLOv</b>8【網(wǎng)絡(luò)<b class='flag-5'>結(jié)構(gòu)</b>+代碼+實(shí)操】

    YOLOv8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對(duì)象檢測(cè)與實(shí)例分割模型,借鑒了YOLOv5、YOLOv6、YOLOX等
    的頭像 發(fā)表于 08-10 11:35 ?1087次閱讀
    <b class='flag-5'>YOLOv</b>8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    深度學(xué)習(xí)YOLOv3 模型設(shè)計(jì)的基本思想

    在檢測(cè)任務(wù)中,將圖中C0后面的平均池化、全連接層和Softmax去掉,保留從輸入到C0部分的網(wǎng)絡(luò)結(jié)構(gòu),作為檢測(cè)模型的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),也稱為骨干網(wǎng)絡(luò)
    發(fā)表于 10-17 10:32 ?246次閱讀
    深度學(xué)習(xí)<b class='flag-5'>YOLOv</b>3 <b class='flag-5'>模型</b>設(shè)計(jì)的基本思想