[发明专利]基于深度学习的动物视频标签自动生成方法、终端及介质在审
申请号: | 202010382574.5 | 申请日: | 2020-05-08 |
公开(公告)号: | CN111552837A | 公开(公告)日: | 2020-08-18 |
发明(设计)人: | 刘露;蔺昊 | 申请(专利权)人: | 深圳市英威诺科技有限公司 |
主分类号: | G06F16/78 | 分类号: | G06F16/78;G06F16/732;G06F16/783;G06K9/62 |
代理公司: | 北京酷爱智慧知识产权代理有限公司 11514 | 代理人: | 占丽君 |
地址: | 518000 广东省深圳市南山区高新南四*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 动物 视频 标签 自动 生成 方法 终端 介质 | ||
本发明提供的一种基于深度学习的动物视频标签自动生成方法、终端及介质,方法包括以下步骤:抽取待检测视频中若干个关键帧图像,将所述关键帧图像输入到特征提取模型中;将特征提取模型输出的特征信息输入到训练好的目标检测算法模型中;记录目标检测算法模型输出的目标物体在待检测视频中的位置和类别,定义目标物体的类别为待检测视频的动物标签。该方法提高了识别效率和识别准确性。
技术领域
本发明属于视频标签技术领域,具体涉及基于深度学习的动物视频标签自动生成方法、终端及介质。
背景技术
动物视频标签自动生成系统是检测视频中是否有动物,以及动物是什么,从而给视频生成标签。现有动物视频标签自动生成系统中常用的方法包括基于帧间差分法和传统计算机视觉图像处理方法。
参见图1、2,基于帧间差分法是通过对视频相邻帧或相隔几帧图像的两幅图像像素值做差分,得到两帧图像亮度差的绝对值,然后进行阈值化来提取图像中的运动区域,从而推断出视频中出现的动物区域。该方法逻辑简单,处理速度快。但是不能用于运动的摄像头中,也不能用于识别静止或运动速度很慢或非常快的目标,而且如果目标动物表面有大面积灰度值相似的情况下,识别效果也不好。更重要的是,这种方法只能用于识别视频中是否有动物,但并不能识别出动物具体是什么,甚至不能保证识别结果的正确性,因此这种方法使用场景的局限性较大。
参见图3、4、5,传统计算机视觉图像处理方法需要在训练数据集中对每种动物人工设计特征,然后再利用提取的特征训练分类器识别。由于在视频帧中检测动物需要先定位动物在视频帧图像的位置,然后再识别动物的类别。因此识别模型中除了要有分类功能,还需要有定位功能。在训练的时候,为了让最后训练得到的模型能够适应不同尺度的图片,会先按不同长宽比将图片缩放成多张图片,然后再采用不同尺度和长宽比的矩形框在图像中滑动的方法以遍历整幅图像,以这种穷举的策略来得到包含目标可能出现的位置区域。然后再对以上策略得到的每个位置区域的图像提取特征矩阵。最后将以上提取到的特征矩阵用于训练分类器。当模型训练好之后,实际应用时,需要以固定时间间隔抽取视频帧,然后使用模型对每帧图像识别图像中包含的动物类别。最后综合所有抽取到的视频帧的识别结果作为整个视频的识别结果。
传统计算机视觉图像处理方法虽然能够识别到视频中可能包含的动物类别。但是,滑动窗口的方式将会产生大量冗余窗口,并且还会增加后续特征提取和识别的负担,严重影响了处理效率。而且这种人工设计的特征提取模板提取到的特征矩阵的表达能力较弱,再加上分类器一般使用SVM或Adaboost之类的弱分类器,因此最后模型的识别准确率也很低。
发明内容
针对现有技术中的缺陷,本发明提供一种基于深度学习的动物视频标签自动生成方法、终端及介质,提高了识别效率和识别准确性。
第一方面,一种基于深度学习的动物视频标签自动生成方法,包括以下步骤:
抽取待检测视频中若干个关键帧图像,将所述关键帧图像输入到特征提取模型中;
将特征提取模型输出的特征信息输入到训练好的目标检测算法模型中;
记录目标检测算法模型输出的目标物体在待检测视频中的位置和类别,定义目标物体的类别为待检测视频的动物标签。
优选地,所述特征提取模型由卷积神经网络构成,并通过ImageNet分类数据集训练得到。
优选地,所述目标检测算法模型通过以下方法训练得到:
获取由多张训练图片构成的训练集,标注每张训练图片中物体的位置和类别;
基于TensorFlow框架编程实现目标检测算法;
利用所述训练集对所述目标检测算法进行训练;
保存训练好的目标检测算法为所述目标检测算法模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市英威诺科技有限公司,未经深圳市英威诺科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010382574.5/2.html,转载请声明来源钻瓜专利网。