91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用OpenCV對運動員的姿勢進行檢測

發布時間:2021-12-15 18:25:27 來源:億速云 閱讀:177 作者:柒染 欄目:大數據

今天就跟大家聊聊有關如何使用OpenCV對運動員的姿勢進行檢測,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

如今,體育運動的熱潮日益流行。同樣,以不正確的方式進行運動的風險也在增加。有時可能會導致嚴重的傷害。考慮到這些原因,提出一種以分析運動員的關節運動,來幫助運動員糾正姿勢的解決方案。

人體姿勢估計是計算機視覺領域的重要問題。它的算法有助于定位手腕,腳踝,膝蓋等部位。這樣做是為了使用深度學習和卷積神經網絡的概念提供個性化的運動訓練體驗。特別是對于體育活動而言,訓練質量在很大程度上取決于圖像或視頻序列中人體姿勢的正確性。

如何使用OpenCV對運動員的姿勢進行檢測

從圖像或視頻序列中檢測運動員的姿勢

數據集

正確選擇數據集以對結果產生適當影響也是非常必要的。在此姿勢檢測中,模型在兩個不同的數據集即COCO關鍵點數據集和MPII人類姿勢數據集上進行了預訓練。

1. COCO:COCO關鍵點數據集是一個多人2D姿勢估計數據集,其中包含從Flickr收集的圖像。迄今為止,COCO是最大的2D姿勢估計數據集,并被視為測試2D姿勢估計算法的基準。COCO模型有18種分類。COCO輸出格式:鼻子— 0,脖子—1,右肩—2,右肘—3,右手腕—4,左肩—5,左手肘—6,左手腕—7,右臀部—8,右膝蓋—9,右腳踝—10,左臀部—11,左膝—12,左腳踝—13,右眼—14,左眼—15,右耳—16,左耳—17,背景—18

2. MPII:MPII人體姿勢數據集是一個多人2D姿勢估計數據集,包含從Youtube視頻中收集的近500種不同的人類活動。MPII是第一個包含各種姿勢范圍的數據集,也是第一個在2014年發起2D姿勢估計挑戰的數據集。MPII模型輸出15分。MPII輸出格式:頭—0,脖子—1,右肩—2,右肘—3,右腕—4,左肩—5,左肘—6,左腕—7,右臀部—8,右膝蓋—9,右腳踝—10,左臀部—11,左膝蓋—12,左腳踝—13,胸部—14,背景—15

如何使用OpenCV對運動員的姿勢進行檢測

這些點是在對數據集進行處理并通過卷積神經網絡(CNN)進行全面訓練時生成的。


具體步驟

步驟1:需求收集(模型權重)和負載網絡

訓練有素的模型需要加載到OpenCV中。這些模型在Caffe深度學習框架上進行了訓練。Caffe模型包含兩個文件,即.prototxt文件和.caffemodel文件。

  1. .prototxt文件指定了神經網絡的體系結構。

  2. .caffemodel文件存儲訓練后的模型的權重。

然后我們將這兩個文件加載到網絡中。

# Specify the paths for the 2 filesprotoFile = "pose/mpi/pose_deploy_linevec_faster_4_stages.prototxt"weightsFile = "pose/mpi/pose_iter_160000.caffemodel"# Read the network into Memorynet = cv2.dnn.readNetFromCaffe(protoFile, weightsFile)

步驟2:讀取圖像并準備輸入網絡

首先,我們需要使用blobFromImage函數將圖像從OpenCV格式轉換為Caffe blob格式,以便可以將其作為輸入輸入到網絡。這些參數將在blobFromImage函數中提供。由于OpenCV和Caffe都使用BGR格式,因此無需交換R和B通道。

# Read imageframe = cv2.imread("image.jpg")# Specify the input image dimensionsinWidth = 368inHeight = 368# Prepare the frame to be fed to the networkinpBlob = cv2.dnn.blobFromImage(frame, 1.0 / 255, (inWidth, inHeight), (0, 0, 0), swapRB=False, crop=False)# Set the prepared object as the input blob of the networknet.setInput(inpBlob)

步驟3:做出預測并解析關鍵點

一旦將圖像傳遞到模型,就可以使用OpenCV中DNN類的正向方法進行預測,該方法通過網絡進行正向傳遞,這只是說它正在進行預測的另一種方式。

output = net.forward()

輸出為4D矩陣:

  1. 第一個維度是圖片ID(如果您將多個圖片傳遞到網絡)。

  2. 第二個維度指示關鍵點的索引。該模型會生成置信度圖(在圖像上的概率分布,表示每個像素處關節位置的置信度)和所有已連接的零件親和度圖。對于COCO模型,它由57個部分組成-18個關鍵點置信度圖+ 1個背景+ 19 * 2個部分親和度圖。同樣,對于MPI,它會產生44點。我們將僅使用與關鍵點相對應的前幾個點。

  3. 第三維是輸出圖的高度。

  4. 第四個維度是輸出圖的寬度。

然后,我們檢查圖像中是否存在每個關鍵點。我們通過找到關鍵點的置信度圖的最大值來獲得關鍵點的位置。我們還使用閾值來減少錯誤檢測。

如何使用OpenCV對運動員的姿勢進行檢測

置信度圖

一旦檢測到關鍵點,我們便將其繪制在圖像上。

H = out.shape[2]W = out.shape[3]# Empty list to store the detected keypointspoints = []for i in range(len()):    # confidence map of corresponding body's part.    probMap = output[0, i, :, :]    # Find global maxima of the probMap.    minVal, prob, minLoc, point = cv2.minMaxLoc(probMap)    # Scale the point to fit on the original image    x = (frameWidth * point[0]) / W    y = (frameHeight * point[1]) / H    if prob > threshold :        cv2.circle(frame, (int(x), int(y)), 15, (0, 255, 255), thickness=-1, lineType=cv.FILLED)        cv2.putText(frame, "{}".format(i), (int(x), int(y)), cv2.FONT_HERSHEY_SIMPLEX, 1.4, (0, 0, 255), 3, lineType=cv2.LINE_AA)# Add the point to the list if the probability is greater than the threshold        points.append((int(x), int(y)))    else :        points.append(None)cv2.imshow("Output-Keypoints",frame)cv2.waitKey(0)cv2.destroyAllWindows()

步驟4:繪制骨架

由于我們已經繪制了關鍵點,因此我們現在只需將兩對連接即可繪制骨架。

for pair in POSE_PAIRS:    partA = pair[0]    partB = pair[1]    if points[partA] and points[partB]:        cv2.line(frameCopy, points[partA], points[partB], (0, 255, 0), 3)

結果

如何使用OpenCV對運動員的姿勢進行檢測

上面顯示的輸出向我們顯示了運動員在特定時刻的準確姿勢。

看完上述內容,你們對如何使用OpenCV對運動員的姿勢進行檢測有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

阿巴嘎旗| 楚雄市| 甘肃省| 岗巴县| 罗城| 巍山| 富民县| 太湖县| 张家川| 刚察县| 汝阳县| 蓬安县| 庆安县| 南康市| 治县。| 宣汉县| 普安县| 盈江县| 内黄县| 丹巴县| 临澧县| 海丰县| 高州市| 遂溪县| 金乡县| 大英县| 会昌县| 苏尼特左旗| 龙陵县| 安化县| 徐水县| 仲巴县| 崇明县| 正定县| 深圳市| 屏边| 方城县| 盘山县| 南郑县| 二连浩特市| 平泉县|