yolo目标检测实时学习、识别 将会这样发展嘛?

目标检测目前遇到的问题:

1、图像识别的数据集标注只能人工来进行。人工智能检测到图片中物体种类名称,然而它检测的对错与否最终只能人来判断。为什么不能机器来做呢?

2、图片中一种物体可能会有多种动作、表情、穿着等等。仅仅依靠卷积网络来提取特征,可靠嘛?

3、yolo目标检测时,多种类目标检测训练时候要同时将各类别的图片一起放到模型中训练。新增类别迁移学习的时候还要把用来训练原模型的所有图片放一起训练嘛?这样的话,图片数据集岂不是越来越多?

方案:
自适应图像识别
——>
问题:图像识别对错与否的标准只能由人来定义
——>
目标:以上的检测对错标准将由机器自己定义
——>
方法:根据视频图像中物体位置移动和大小变化必须连续且顺滑的原则。将顺滑且低概率帧图像存储单独作为一个新的子类别。再将图片作为一个子类别自动标注和先前图片一起迁移学习。本人称这种方法为"单目标多场景类别识别算法"。
例子:识别人这一类别的时候可以采集各种各样人类的图片放进网络中训练,但是人有不同姿态、表情、衣着、肤色、年龄等。这些图片只有一个规律——都是人。然而其实这些图片共同的规律基本没有,也可以说找这种共同的规律很困难。值得一提的是,神经网络本质上就是在找规律,但是图片本身就没有共同规律或者说规律很小,卷积网络提取出的特征又可靠嘛?所以我们按肤色、衣着、动作、光照环境等,把人分为多个子类别。可能同一个人就有上百个子类别。每个类别的识别相似率可能不是很高,但是相似率最高的大概率都是人。
——>
然而这些子类别并不需要人为来设置,通过以下方法实现自动定义分类。
当所有检测到图像中存在某种类别的物体。但是这类物体的子类别相似度都不高的时候就可以以这些图像为基础新设立一个类别。再进行迁移学习。
——>
这时候又衍生出了一个问题,一类物体能有多少子类别呢?
——>
解决方案:子类别个数人为规定,末位少用淘汰制淘汰子类别。开辟一个缓冲区,缓存新竞争类别。

下面是一些未整理的草稿ᥬ🌝᭄

在这里插入图片描述

在这里插入图片描述在这里插入图片描述在这里插入图片描述

版权声明:本文为CSDN博主「#风小松」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_45837785/article/details/121409057

#风小松

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐