通过Python实现手势识别及目标检测的一些感想

※说明:文章中出现的代码均非原创,仅作引用说明使用。

第一次写粗制滥造的屑博客,后续还会进行修改(如果能改的话)。

 关于手势识别

概要

        手势识别,即为向程序输入图形(图片、视频、实时录像等),通过程序识别人体皮肤颜色的方式,勾画出轮廓,从而实现手势识别的目的。

        所以手势识别本质上是识别人体皮肤的颜色,将其与图像上其他事物区分开来。

         以上截图是一段手势识别程序运行时的效果。

运行原理

        这里利用Python、OpenCV进行处理。

        首先是常规的操作,将图像(视频)输入至程序,之后方可进行处理。

import cv2
import numpy as np
cap = cv2.VideoCapture(XXX)#XXX为0时读取摄像头,为"YYY.mp4"等文件名时读取文件

        接着是皮肤检测,借物的代码没有做太多的分析,主要是将图形拆分出Y、Cr、Cb值,在整张图像中进行判断。判断皮肤范围后绘制轮廓。

def A(img):

    YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
    (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
    cr1 = cv2.GaussianBlur(cr, (5,5), 0)
    _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu处理
    res = cv2.bitwise_and(img,img, mask = skin)
    return res

def B(img):

    #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny检测
    h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #寻找轮廓
    contour = h[0]
    contour = sorted(contour, key = cv2.contourArea, reverse=True)#已轮廓区域面积进行排序
    #contourmax = contour[0][:, 0, :]#保留区域面积最大的轮廓点坐标
    bg = np.ones(dst.shape, np.uint8) *255#创建白色幕布
    ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #绘制黑色轮廓
    return ret

        然后需要对输入的图形进行一定的处理,除了确定处理的范围之外,根据具体图像环境不同,需要对肤色进行判断。接着才能进行检测。

        最后分析之后需要输出给人看,白色的底图和绘制的轮廓,可以体现出手势的样式。

 >这么长串别人的代码,就不继续贴出来了吧(悲)

缺点

        由于这串代码并未对“手的形状”进行识别,而只是单纯的识别肤色进行绘图,因此露脸的人脸等或会被绘入轮廓中。但若要对手本身进行识别,难度较大对新手不友好。通过识别肤色的方式可以较为简单地实现手势的识别,只要人体皮肤其他部位没有出镜即可。

关于目标检测

运行的图丢一个出来,坑先挖着(

 

版权声明:本文为CSDN博主「Souto35」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Souto35/article/details/121622385

Souto35

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

YOLOX训练自己的数据

YOLOX是旷世开源的用于目标检测的算法,相比于YOLO(V3-V5)系列,在精度上有提升,速度上也具有一定的竞争优势。 介绍 YOLOX是YOLO的anchor-free版本,设计更

实战:使用 PyTorch 和 OpenCV 实现实时目标检测系统

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达一、引言自动驾驶汽车可能仍然难以理解人类和垃圾桶之间的区别,但这并没有使最先进的物体检测模型在过去十年中取得的惊人进步相去甚远。将其