实时姿态识别

1、姿态识别项目

2、姿态估计模型选取

3、分类模型选取

4、姿态识别实验

1、姿态识别项目

需求:

自然场景实时检测人体的关键点位置并判断人体的动作。即fps>=30。

思路:

1、首先利用姿态估计模型判断关键点位置并保存关键点位置坐标

2、将关键点保存,并利用分类模型对其进行训练以分类

关键点:

由于要实时即终端部署,所以姿态估计以及分类模型均使用轻量级模型

2、姿态估计模型选取

1、movenet_lighting

2、movenet_thunder

3、posenet

4、UDP_pose

论文链接:Polarized Self-Attention: Towards High-quality Pixel-wise Regression | Papers With Code

GitHub链接:https://github.com/sithu31296/pose-estimation

3、分类模型选取

1、机器学习模型:SVM

2、机器学习模型:决策树

3、深度学习模型:MLP

4、姿态识别实验

4.1 姿态估计实验

(1) 使用官方movenet_lighting.tflite进行推理测试,其对于深蹲以及连不遮挡等图片识别效果较差。其在cpu上推理速度为22ms

 

 (2)使用官方movenet_thunder.tflite进行推理测试,其结果于(1)效果好一些。但针对于深蹲动作识别效果不好,且其对于方向和角度识别较差。其在cpu推理时间为58ms。

 

 (3)使用posenet进行测试,posenet对于干净背景关键点检测结果相对于movenet要好。但是其对于复杂背景(即人体与背景对比度不是很大时),其会出现无法精准识别人体的情况。如下图所示:

 

 其中,绿色远点为posenet标注结果,红色为movenet_lighting标注结果。

(4)使用UDP_pose进行测试,其属于bottom-up姿态识别模型,即首先检测出人的位置,然后针对人体所在位置范围进行关键点检测。其中人体检测部分模型使用的是YOLO v5。其效果针对深蹲,脸部遮挡以及复杂背景检测效果均非常好。但将yolo v5转换为onnx模型在cpu上推理时间为258ms,无法实时。

 

 4.2 姿态识别实验

4.1中的姿态估计估计模型将17个关键点坐标保存为npy文件作为分类模型的输入。针对4.1中的所有姿态估计模型均使用MLP进行分类吧并进行预测。其中,movenet_lightening的准确率可以达到0.9987,UDP_pose模型的准确率为1。最后将MLP的keras模型转化为tflite,其在cpu上推理时间为0.01ms。

 

版权声明:本文为CSDN博主「一顿能吃五大海碗啊啊啊」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_42148389/article/details/122495996

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

通俗地讲解目标检测中AP指标

声明:以下内容全是我的个人见解,如有问题,欢迎指正! AP(Average Precision)即平均精度,是目标检测中的一个常用指标。 一、准确率和召回率 说道AP&

yolo原理系列——yolov1--yolov5详细解释

yolo系列原理 先唠唠 这部分主要讲述yolo系列各个版本的的原理,这部分会把yolov1到yolov5的原理进行详细的阐述。首先我们先来看深度学习的两种经典的检测方法: Two-stage(两阶段&

计算机视觉算法——目标检测网络总结

计算机视觉算法——目标检测网络总结 由于后面工作方向的需要,也是自己的兴趣,我决定补习下计算机视觉算法相关的知识点,参考的学习资料主要是B站Up主霹雳吧啦Wz,强推一下,U