※说明:文章中出现的代码均非原创,仅作引用说明使用。
第一次写粗制滥造的屑博客,后续还会进行修改(如果能改的话)。
关于手势识别
概要
手势识别,即为向程序输入图形(图片、视频、实时录像等),通过程序识别人体皮肤颜色的方式,勾画出轮廓,从而实现手势识别的目的。
所以手势识别本质上是识别人体皮肤的颜色,将其与图像上其他事物区分开来。
以上截图是一段手势识别程序运行时的效果。
运行原理
这里利用Python、OpenCV进行处理。
首先是常规的操作,将图像(视频)输入至程序,之后方可进行处理。
import cv2
import numpy as np
cap = cv2.VideoCapture(XXX)#XXX为0时读取摄像头,为"YYY.mp4"等文件名时读取文件
接着是皮肤检测,借物的代码没有做太多的分析,主要是将图形拆分出Y、Cr、Cb值,在整张图像中进行判断。判断皮肤范围后绘制轮廓。
def A(img):
YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #转换至YCrCb空间
(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
cr1 = cv2.GaussianBlur(cr, (5,5), 0)
_, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu处理
res = cv2.bitwise_and(img,img, mask = skin)
return res
def B(img):
#binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny检测
h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #寻找轮廓
contour = h[0]
contour = sorted(contour, key = cv2.contourArea, reverse=True)#已轮廓区域面积进行排序
#contourmax = contour[0][:, 0, :]#保留区域面积最大的轮廓点坐标
bg = np.ones(dst.shape, np.uint8) *255#创建白色幕布
ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #绘制黑色轮廓
return ret
然后需要对输入的图形进行一定的处理,除了确定处理的范围之外,根据具体图像环境不同,需要对肤色进行判断。接着才能进行检测。
最后分析之后需要输出给人看,白色的底图和绘制的轮廓,可以体现出手势的样式。
>这么长串别人的代码,就不继续贴出来了吧(悲)
缺点
由于这串代码并未对“手的形状”进行识别,而只是单纯的识别肤色进行绘图,因此露脸的人脸等或会被绘入轮廓中。但若要对手本身进行识别,难度较大对新手不友好。通过识别肤色的方式可以较为简单地实现手势的识别,只要人体皮肤其他部位没有出镜即可。
关于目标检测
运行的图丢一个出来,坑先挖着(
版权声明:本文为CSDN博主「Souto35」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Souto35/article/details/121622385
暂无评论