心路历程:拿到这个题目一脸懵,完全不知道要做什么,尽管模型不需要自己训练(模型来源),可是完全不知道怎么使用,帮助文档好长,看了好久。最后运行了demo后,也不知道这东西有什么用(应该是这东西我有什么是能做出来的。陷入无限百度…)

一、模型下载

下载下来的模型文件中有一个demo,在bin文件夹下,命令行下使用python是openpose的示例。(我下载的模型文件夹)
此外,里面models文件夹里有四个文件,脸预测、手预测、姿态预测(第一个暂时不知道是啥),文件夹里有对应的模型和配置文件,其中姿态预测有三个模型,电脑配置不是很好的建议使用COCO模型,body25模型会比较卡,MPI没试过。

二、试用demo

看帮助文档openpose/doc/demo_overview.md

命令行进入openpose目录,按照文档的用法可运行

注意,这里如果出现一个黑框,然后又消失,OpenPose报错:error == cudaSuccess (2 vs. 0) out of memory,就是电脑配置不够的问题这里有两个方法可以使用

  1. 改用COCO模型
    示例
 bin\OpenPoseDemo.exe --video examples\media\video.avi --model_pose COCO
  1. 修改分辨率(推荐)
 bin\OpenPoseDemo.exe --video examples\media\video.avi --net_resolution 320x176

(分辨率需要16的倍数,最后我使用了160x80,非常流畅)

参考已经解决:OpenPose报错:error == cudaSuccess (2 vs. 0) out of memory

三、使用模型

试用完demo后陷入了不知道做什么的矛盾,由于老师也没说要做什么,所以就继续百度看看别人的案例。

  1. 抖音尬舞案例
    用 Python+openpose 实现抖音尬舞机

这个案例主要是估计出人体姿态后取出各个关节的坐标,通过坐标关系对人体姿态进行判断。我对代码整合和多次尝试后,大概摸透了,他是判断人的手腕坐标高于脖子,则判定为举手。代码由于需要输入,要用命令行运行,在pycharm中运行会失败的。必须指定参数才可以运行,也可以在代码中修改后直接指定。
COCO含有18个节点,代码中用字典BODY_PARTS指定各个节点,其顺序是模型中设定好的。可以百度对应图片出来看一看。POSE_PAIRS是指定两两之间的连线关系。
注意:x轴从左到右,y轴是从上到下。
运行示例:

python my_openpose.py --proto openpose\models\pose\coco\pose_deploy_linevec.prototxt --model openpose\models\pose\coco\pose_iter_440000.caffemodel --dataset COCO --input 'D:/360MoveData/Users/asus/Desktop/machine-learning/openpose-example/openpose/examples/media/12.jpg'

# __author: HY
# date: 2020/7/18
# To use Inference Engine backend, specify location of plugins:
# source /opt/intel/computer_vision_sdk/bin/setupvars.sh
import cv2 as cv
import numpy as np
import argparseparser = argparse.ArgumentParser(description='This script is used to demonstrate OpenPose human pose estimation network ''from https://github.com/CMU-Perceptual-Computing-Lab/openpose project using OpenCV. ''The sample and model are simplified and could be used for a single person on the frame.')
parser.add_argument('--input', help='Path to image or video. Skip to capture frames from camera')
parser.add_argument('--proto', help='Path to .prototxt')
parser.add_argument('--model', help='Path to .caffemodel')
parser.add_argument('--dataset', help='Specify what kind of model was trained. ''It could be (COCO, MPI, HAND) depends on dataset.')
parser.add_argument('--thr', default=0.1, type=float, help='Threshold value for pose parts heat map')
parser.add_argument('--width', default=368, type=int, help='Resize input to specific width.')
parser.add_argument('--height', default=368, type=int, help='Resize input to specific height.')
parser.add_argument('--scale', default=0.003922, type=float, help='Scale for blob.')args = parser.parse_args()if args.dataset == 'COCO':BODY_PARTS = { "Nose": 0, "Neck": 1, "RShoulder": 2, "RElbow": 3, "RWrist": 4,"LShoulder": 5, "LElbow": 6, "LWrist": 7, "RHip": 8, "RKnee": 9,"RAnkle": 10, "LHip": 11, "LKnee": 12, "LAnkle": 13, "REye": 14,"LEye": 15, "REar": 16, "LEar": 17, "Background": 18 }POSE_PAIRS = [ ["Neck", "RShoulder"], ["Neck", "LShoulder"], ["RShoulder", "RElbow"],["RElbow", "RWrist"], ["LShoulder", "LElbow"], ["LElbow", "LWrist"],["Neck", "RHip"], ["RHip", "RKnee"], ["RKnee", "RAnkle"], ["Neck", "LHip"],["LHip", "LKnee"], ["LKnee", "LAnkle"], ["Neck", "Nose"], ["Nose", "REye"],["REye", "REar"], ["Nose", "LEye"], ["LEye", "LEar"] ]
elif args.dataset == 'MPI':BODY_PARTS = { "Head": 0, "Neck": 1, "RShoulder": 2, "RElbow": 3, "RWrist": 4,"LShoulder": 5, "LElbow": 6, "LWrist": 7, "RHip": 8, "RKnee": 9,"RAnkle": 10, "LHip": 11, "LKnee": 12, "LAnkle": 13, "Chest": 14,"Background": 15 }POSE_PAIRS = [ ["Head", "Neck"], ["Neck", "RShoulder"], ["RShoulder", "RElbow"],["RElbow", "RWrist"], ["Neck", "LShoulder"], ["LShoulder", "LElbow"],["LElbow", "LWrist"], ["Neck", "Chest"], ["Chest", "RHip"], ["RHip", "RKnee"],["RKnee", "RAnkle"], ["Chest", "LHip"], ["LHip", "LKnee"], ["LKnee", "LAnkle"] ]
else:assert(args.dataset == 'HAND')BODY_PARTS = { "Wrist": 0,"ThumbMetacarpal": 1, "ThumbProximal": 2, "ThumbMiddle": 3, "ThumbDistal": 4,"IndexFingerMetacarpal": 5, "IndexFingerProximal": 6, "IndexFingerMiddle": 7, "IndexFingerDistal": 8,"MiddleFingerMetacarpal": 9, "MiddleFingerProximal": 10, "MiddleFingerMiddle": 11, "MiddleFingerDistal": 12,"RingFingerMetacarpal": 13, "RingFingerProximal": 14, "RingFingerMiddle": 15, "RingFingerDistal": 16,"LittleFingerMetacarpal": 17, "LittleFingerProximal": 18, "LittleFingerMiddle": 19, "LittleFingerDistal": 20,}POSE_PAIRS = [ ["Wrist", "ThumbMetacarpal"], ["ThumbMetacarpal", "ThumbProximal"],["ThumbProximal", "ThumbMiddle"], ["ThumbMiddle", "ThumbDistal"],["Wrist", "IndexFingerMetacarpal"], ["IndexFingerMetacarpal", "IndexFingerProximal"],["IndexFingerProximal", "IndexFingerMiddle"], ["IndexFingerMiddle", "IndexFingerDistal"],["Wrist", "MiddleFingerMetacarpal"], ["MiddleFingerMetacarpal", "MiddleFingerProximal"],["MiddleFingerProximal", "MiddleFingerMiddle"], ["MiddleFingerMiddle", "MiddleFingerDistal"],["Wrist", "RingFingerMetacarpal"], ["RingFingerMetacarpal", "RingFingerProximal"],["RingFingerProximal", "RingFingerMiddle"], ["RingFingerMiddle", "RingFingerDistal"],["Wrist", "LittleFingerMetacarpal"], ["LittleFingerMetacarpal", "LittleFingerProximal"],["LittleFingerProximal", "LittleFingerMiddle"], ["LittleFingerMiddle", "LittleFingerDistal"] ]inWidth = args.width
inHeight = args.height
inScale = args.scalenet = cv.dnn.readNet(cv.samples.findFile(args.proto), cv.samples.findFile(args.model))cap = cv.VideoCapture(args.input if args.input else 0)while cv.waitKey(1) < 0:hasFrame, frame = cap.read()if not hasFrame:cv.waitKey()breakframeWidth = frame.shape[1]frameHeight = frame.shape[0]inp = cv.dnn.blobFromImage(frame, inScale, (inWidth, inHeight),(0, 0, 0), swapRB=False, crop=False)net.setInput(inp)out = net.forward()assert(len(BODY_PARTS) <= out.shape[1])points = []for i in range(len(BODY_PARTS)):# Slice heatmap of corresponding body's part.heatMap = out[0, i, :, :]# Originally, we try to find all the local maximums. To simplify a sample# we just find a global one. However only a single pose at the same time# could be detected this way._, conf, _, point = cv.minMaxLoc(heatMap)x = (frameWidth * point[0]) / out.shape[3]y = (frameHeight * point[1]) / out.shape[2]# Add a point if it's confidence is higher than threshold.points.append((int(x), int(y)) if conf > args.thr else None)for pair in POSE_PAIRS:partFrom = pair[0]partTo = pair[1]assert(partFrom in BODY_PARTS)assert(partTo in BODY_PARTS)idFrom = BODY_PARTS[partFrom]idTo = BODY_PARTS[partTo]if points[idFrom] and points[idTo]:cv.line(frame, points[idFrom], points[idTo], (0, 255, 0), 3)cv.ellipse(frame, points[idFrom], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED)cv.ellipse(frame, points[idTo], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED)t, _ = net.getPerfProfile()freq = cv.getTickFrequency() / 1000cv.putText(frame, '%.2fms' % (t / freq), (10, 20), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 0))neck = points[BODY_PARTS['Neck']]left_wrist = points[BODY_PARTS['LWrist']]right_wrist = points[BODY_PARTS['RWrist']]print(neck, left_wrist, right_wrist)if neck and left_wrist and right_wrist and left_wrist[1] < neck[1] and right_wrist[1] < neck[1]:cv.putText(frame, 'HANDS UP!', (10, 100), cv.FONT_HERSHEY_SIMPLEX, 2, (0, 255,0), 2)cv.imshow('OpenPose using OpenCV', frame)

运行起来会比较卡,我测试了一下,主要是因为这一句out = net.forward(),花费的时间是其余语句的上万倍。但是实现检测举手的功能。同理很容易拓展出简易功能,比如:举左手(左手手腕y坐标高,右手低)、举右手、交叉手(左右手腕x坐标大小)、交叉脚、弯腿曲手(Z坐标连线的角度低于180°)、张开手(手腕之间x远大于跨)等

COCO对应位置:

// {0, “Nose”},
// {1, “Neck”},
// {2, “RShoulder”},
// {3, “RElbow”},
// {4, “RWrist”},
// {5, “LShoulder”},
// {6, “LElbow”},
// {7, “LWrist”},
// {8, “RHip”},
// {9, “RKnee”},
// {10, “RAnkle”},
// {11, “LHip”},
// {12, “LKnee”},
// {13, “LAnkle”},
// {14, “REye”},
// {15, “LEye”},
// {16, “REar”},
// {17, “LEar”}
2、25点模型

对应位置:
{0, “Nose”},
{1, “Neck”},
{2, “RShoulder”},
{3, “RElbow”},
{4, “RWrist”},
{5, “LShoulder”},
{6, “LElbow”},
{7, “LWrist”},
{8, “MidHip”},
{9, “RHip”},
{10, “RKnee”},
{11, “RAnkle”},
{12, “LHip”},
{13, “LKnee”},
{14, “LAnkle”},
{15, “REye”},
{16, “LEye”},
{17, “REar”},
{18, “LEar”},
{19, “LBigToe”},
{20, “LSmallToe”},
{21, “LHeel”},
{22, “RBigToe”},
{23, “RSmallToe”},
{24, “RHeel”},

  1. 人脸检测报警器
    基于openpose的动作识别(三)特征点电子围栏

这个是使用models/face/haarcascade_frontalface_alt.xml这个人脸识别的模型,他检测出人脸之后用一个绿色框框住,视频固定位置画了一个紫色检测框,当绿色框左上角进入紫色框范围内时,会给出警告。
这个案例非常有意思,而且实用性感觉很高,所以我重点使用了这个案例。
相同部分我就不赘述了,我对其作出的修改是作出界面来,界面上增加6个按键,用于紫色框位置和大小的调整,其次绿色框左上角进入范围修改成只要两框重合就报警,使用一个声音的包,可以发出警报的声音。

  1. 手势、身体识别
    openpose windows手势(姿态)识别
    ————————————————
    版权声明:本文为CSDN博主「liu24244」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/liu24244/article/details/106452542

这个案例第一份代码是对手部检测、第二份是对身体检测。第一份中有一个框,必须要把手放在框内才能检测出手部关节来,看了几遍后,发现是这句代码

[op.Rectangle(0, 0,0, 0),
op.Rectangle(100*rate, 100*rate,300*rate, 300*rate)]

限定了检测区域,将坐标从100,100改成0,0即可检测全部区域。

OPENPOSE人体姿态估计课程设计相关推荐

  1. 融合人体姿态估计和目标检测的学生课堂行为识别

    融合人体姿态估计和目标检测的学生课堂行为识别_参考网 摘要: 在課堂教学中 , 人工智能技术可以帮助实现学生行为分析自动化 , 让教师能够高效且直观地掌握学生学习行为投入的情况 , 为后续优化教学设计 ...

  2. 人工智能 信道估计 深度学习_深度学习人体姿态估计算法综述

    作者 | Bharath Raj 译者 | 李志 编辑 | Vincent AI 前线导读:人体姿态估计的任务是从包含人体的图片中检测出人体关键点,并恢复人体位姿.随着深度学习的发展,越来越多的深度学 ...

  3. Python+OpenCV+OpenPose实现人体姿态估计(人体关键点检测)

    目录 1.人体姿态估计简介 2.人体姿态估计数据集 3.OpenPose库 4.实现原理 5.实现神经网络 6.实现代码 1.人体姿态估计简介 人体姿态估计(Human Posture Estimat ...

  4. Openpose+Tensorflow 这样实现人体姿态估计 | 代码干货

    作者 | 李秋键 出品 | AI科技大本营(ID:rgznai100) 人体姿态估计指从单个 RGB 图像中精确地估计出人体的位置以及检测骨骼关键点的位置.人体姿态估计是计算机视觉领域的研究热点,是诸 ...

  5. CV之PoseEstimation:Pose Estimation人体姿态估计(AI识人,OpenPose+DeepCut+RMPE+Mask RCNN)的简介、案例应用之详细攻略

    CV之PoseEstimation:Pose Estimation人体姿态估计(AI识人,OpenPose+DeepCut+RMPE+Mask RCNN)的简介.案例应用之详细攻略 目录 Pose E ...

  6. OpenPose 升级,CMU提出首个单网络全人体姿态估计网络,速度大幅提高

    点击我爱计算机视觉标星,更快获取CVML新技术 昨天,曾经开源OpenPose的卡内基梅隆大学(CMU)公布了ICCV 2019 论文 Single-Network Whole-Body Pose E ...

  7. 用OpenPose进行单个或多个人体姿态估计

    在计算机视觉中,人体姿态估计(关键点检测)是一个很常见的问题,在体育健身.动作采集.3D试衣.舆情监测等领域具有广阔的应用前景,本文要使用的检测方法就是基于OpenPose的人体姿态估计方法. 一.O ...

  8. 人体姿态估计openpose学习与应用

    前言 2021年时,就有做人体姿态估计的想法,具体应用场景是想去把这个姿态估计与工厂操作工的动作结合起来,搭建一套能够监控和规范产线操作工装配动作的基于视觉的人体姿态估计系统.因为一系列的各种原因就搁 ...

  9. 3D视觉——3.人体姿态估计(Pose Estimation) 算法对比 即 效果展示——MediaPipe与OpenPose

    上一话 3D视觉--2.人体姿态估计(Pose Estimation)入门--OpenPose含安装.编译.使用(单帧.实时视频)https://blog.csdn.net/XiaoyYidiaodi ...

最新文章

  1. 金山词霸2009牛津版
  2. poj2752 字符串子KMP应用
  3. 为什么有人不喜欢标准成本?
  4. Round A - Kick Start 2019
  5. 04-老马jQuery教程-DOM节点操作及位置和大小
  6. 淘宝商品数据库设计的一些经验
  7. 【粉丝需求】如何把一个前端网页都搞下来?
  8. 90% 程序员都吃亏在这门技术上了,你呢!
  9. SQLServer查询最近一天,三天,一周,一月,一季度方法
  10. 萤火小程序商城(YoShop)
  11. Android GPS定位(获取经纬度)
  12. 建模实训报告总结_3d建模实习报告
  13. java大嘴鱼游戏代码_深海迷航零度之下全代码汇总 常用作弊码及使用方法
  14. 科技爱好者周刊(第 150 期):当音乐还是稀缺的时候
  15. HDU 6058 Kanade's sum 逆序求第k大
  16. 八大基本数据类型之基本类型与包装类型的区别
  17. HBBuilderProjest逆向分析与安全性扯淡
  18. 【模板】最小费用最大流【费用流】
  19. 【神经网络】MP神经网络模型(附实例代码讲解)
  20. WirelessCar借助亚马逊云科技的安全服务,实现车端到云端的数据安全

热门文章

  1. 小米10卸载应用后无法再次安装
  2. 消息队列MQ新增3把武器
  3. 2013英语一长难句
  4. 2023阿里云账号注册流程新手入门教程
  5. 智能客服开始“卷”二三线城市了
  6. vb,wps,excel 分裂
  7. java 反射 getdeclaredfield_java反射机制中的getDeclaredField()
  8. 盘点2019年市值前十的互联网巨头,谁仍然是投资者的心头爱?
  9. 基于ABB工业机器人工作站的设计———毕业设计
  10. C++编程法则100条(5)转换构造函数