精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何基于深度學(xué)習(xí)模型訓(xùn)練實現(xiàn)圓檢測與圓心位置預(yù)測

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 2023-12-21 10:50 ? 次閱讀

前言

Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實現(xiàn)圓檢測與圓心位置預(yù)測,主要是通過對YOLOv8姿態(tài)評估模型在自定義的數(shù)據(jù)集上訓(xùn)練,生成一個自定義的圓檢測與圓心定位預(yù)測模型

01制作數(shù)據(jù)集

本人從網(wǎng)絡(luò)上隨便找到了個工業(yè)工件,然后寫代碼合成了一些數(shù)據(jù),總計數(shù)據(jù)有360張圖像、其中336張作為訓(xùn)練集、24張作為驗證集。

其中YOLOv的數(shù)據(jù)格式如下:

ee5ef9ca-9f4a-11ee-8b88-92fbcf53809c.png

解釋一下:

Class-index 表示對象類型索引,從0開始
后面的四個分別是對象的中心位置與寬高 xc、yc、width、height
Px1,py1表示第一個關(guān)鍵點坐標(biāo)、p1v表示師傅可見,默認(rèn)填2即可。

02模型訓(xùn)練

跟訓(xùn)練YOLOv8對象檢測模型類似,直接運行下面的命令行即可:

yolo train model=yolov8n-pose.pt data=circle_dataset.yaml epochs=15 imgsz=640 batch=1

ee70d988-9f4a-11ee-8b88-92fbcf53809c.png

ee918aca-9f4a-11ee-8b88-92fbcf53809c.png

eebba508-9f4a-11ee-8b88-92fbcf53809c.png

eed90814-9f4a-11ee-8b88-92fbcf53809c.png

03模型導(dǎo)出預(yù)測

訓(xùn)練完成以后模型預(yù)測推理測試 使用下面的命令行:

yolo predict model=D:pythonmy_yolov8_train_demo
unspose	rain3weightsest.pt source=D:ird_testack12.png

導(dǎo)出模型為ONNX格式,使用下面命令行即可

yolo export model=D:pythonmy_yolov8_train_demo
unspose	rain3weightsest.pt format=onnx

ef11215e-9f4a-11ee-8b88-92fbcf53809c.png

04部署推理

基于ONNX格式模型,采用ONNXRUNTIME推理結(jié)果

ORT相關(guān)的推理演示代碼如下:

defort_circle_demo():

#initializetheonnxruntimesessionbyloadingmodelinCUDAsupport
model_dir="D:/python/my_yolov8_train_demo/circle_detect.onnx"
session=onnxruntime.InferenceSession(model_dir,providers=['CUDAExecutionProvider'])

#就改這里, 把RTSP的地址配到這邊就好啦,然后直接運行,其它任何地方都不準(zhǔn)改!
#切記把 onnx文件放到跟這個python文件同一個文件夾中!
frame=cv.imread("D:/bird_test/back1/3.png")
bgr=format_yolov8(frame)
fh,fw,fc=frame.shape

start=time.time()
image=cv.dnn.blobFromImage(bgr,1/255.0,(640,640),swapRB=True,crop=False)

#onnxruntimeinference
ort_inputs={session.get_inputs()[0].name:image}
res=session.run(None,ort_inputs)[0]

#matrixtransposefrom1x8x8400=>8400x8
out_prob=np.squeeze(res,0).T

result_kypts,confidences,boxes=wrap_detection(bgr,out_prob)
for(kpts,confidence,box)inzip(result_kypts,confidences,boxes):
cv.rectangle(frame,box,(0,0,255),2)
cv.rectangle(frame,(box[0],box[1]-20),(box[0]+box[2],box[1]),(0,255,255),-1)
cv.putText(frame,("%.2f"%confidence),(box[0],box[1]-10),cv.FONT_HERSHEY_SIMPLEX,.5,(0,0,0))
cx=kpts[0]
cy=kpts[1]
cv.circle(frame,(int(cx),int(cy)),3,(255,0,255),4,8,0)

cv.imshow("CircleDetectionDemo",frame)
cv.waitKey(0)
cv.destroyAllWindows()


if__name__=="__main__":
ort_circle_demo()

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24527
  • 命令行
    +關(guān)注

    關(guān)注

    0

    文章

    76

    瀏覽量

    10368
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120583
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    1325

原文標(biāo)題:【YOLOv8新玩法】姿態(tài)評估解鎖找圓心位置

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何才能高效地進行深度學(xué)習(xí)模型訓(xùn)練

    分布式深度學(xué)習(xí)框架中,包括數(shù)據(jù)/模型切分、本地單機優(yōu)化算法訓(xùn)練、通信機制、和數(shù)據(jù)/模型聚合等模塊。現(xiàn)有的算法一般采用隨機置亂切分的數(shù)據(jù)分配方
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進行<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>?

    請問怎么根據(jù)最小二乘圓心確定最大內(nèi)接圓心

    怎么根據(jù)最小二乘圓心確定最大內(nèi)接圓心
    發(fā)表于 05-12 19:23

    全網(wǎng)唯一一套labview深度學(xué)習(xí)教程:tensorflow+目標(biāo)檢測:龍哥教你學(xué)視覺—LabVIEW深度學(xué)習(xí)教程

    ,使用labview訓(xùn)練和部署深度學(xué)習(xí)模型,并配備相關(guān)案例視頻。課程目錄:Tensorflow環(huán)境搭建Object_detection api安裝相關(guān)py文件編譯測試測試tensorf
    發(fā)表于 08-10 10:38

    labview深度學(xué)習(xí)應(yīng)用于缺陷檢測

    標(biāo)注產(chǎn)品后通過訓(xùn)練平臺完成模型訓(xùn)練經(jīng)過少量樣品訓(xùn)練得到測試結(jié)果,表明深度學(xué)習(xí)對傳統(tǒng)視覺算法比較棘
    發(fā)表于 08-16 18:12

    深度學(xué)習(xí)預(yù)測和健康管理中的應(yīng)用

    方法方面的最新進展,目的是發(fā)現(xiàn)研究差距并提出進一步的改進建議。在簡要介紹了幾種深度學(xué)習(xí)模型之后,我們回顧并分析了使用深度學(xué)習(xí)進行故障
    發(fā)表于 07-12 06:46

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    深度學(xué)習(xí)技術(shù)的開發(fā)與應(yīng)用

    時間安排大綱具體內(nèi)容實操案例三天關(guān)鍵點1.強化學(xué)習(xí)的發(fā)展歷程2.馬爾可夫決策過程3.動態(tài)規(guī)劃4.無模型預(yù)測學(xué)習(xí)5.無模型控制學(xué)習(xí)6.價值函數(shù)
    發(fā)表于 04-21 14:57

    基于深度學(xué)習(xí)模型的點云目標(biāo)檢測及ROS實現(xiàn)

    近年來,隨著深度學(xué)習(xí)在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學(xué)習(xí)模型的點云目標(biāo)檢測方法被提出和應(yīng)
    的頭像 發(fā)表于 11-05 16:47 ?1.8w次閱讀

    基于預(yù)訓(xùn)練模型和長短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型

    作為模型的初始化詞向量。但是,隨機詞向量存在不具備語乂和語法信息的缺點;預(yù)訓(xùn)練詞向量存在¨一詞-乂”的缺點,無法為模型提供具備上下文依賴的詞向量。針對該問題,提岀了一種基于預(yù)訓(xùn)練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和長短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    模型,以便將來能夠進行準(zhǔn)確的預(yù)測。推理是指在訓(xùn)練完成后,使用已經(jīng)訓(xùn)練好的模型進行新的預(yù)測。然而,
    的頭像 發(fā)表于 08-17 16:03 ?1258次閱讀

    視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對象檢測、實例分割、語義分割、姿態(tài)評估
    的頭像 發(fā)表于 09-22 09:49 ?739次閱讀
    視覺<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遷移<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>框架Torchvision介紹

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來得到了廣泛的應(yīng)用,從圖像識別、語音識別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個高效準(zhǔn)確的深度學(xué)
    的頭像 發(fā)表于 12-07 12:38 ?942次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實現(xiàn)工件切割點位置預(yù)測

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實現(xiàn)工件切割點位置
    的頭像 發(fā)表于 12-22 11:07 ?599次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>實現(xiàn)</b>工件切割點<b class='flag-5'>位置</b><b class='flag-5'>預(yù)測</b>

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度
    的頭像 發(fā)表于 07-01 16:13 ?460次閱讀

    深度學(xué)習(xí)的典型模型訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進而
    的頭像 發(fā)表于 07-03 16:06 ?634次閱讀