[发明专利]一种基于深度学习的智慧牛场的监控与识别方法及装置在审
申请号: | 202011318634.3 | 申请日: | 2020-11-23 |
公开(公告)号: | CN112101333A | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 赵国栋;张烜;李学双 | 申请(专利权)人: | 四川圣点世纪科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 乐俊 |
地址: | 610000 四川省成都市金*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 智慧 监控 识别 方法 装置 | ||
1.一种基于深度学习的智慧牛场的监控与识别方法,其特征在于:其包括以下步骤:
1)通过视频监控设备,采集牛场的牛群图片;
2)给牛场牛群图片中的牛只打上标注,做成训练集;
3)将步骤2)的训练集输入到目标检测网络faster rcnn,训练得到牛群目标检测模型;
4)利用牛群目标检测模型对待识别的牛群视频进行检测,框选出视频中每一帧牛的位置;
5)由步骤1)的牛群图片中截取需要进行身份识别的牛的图片,对不同的牛进行编号,做成训练集;
6)将步骤5)的训练集输入到残差网络,训练得到牛识别模型;
7)利用步骤6)的牛识别模型对步骤4)框选出的牛进行身份识别,并将识别结果可视化到牛背上。
2.根据权利要求1所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:步骤3)中,将步骤2)得到的训练集通过目标检测网络faster rcnn进行分类回归和位置回归,得到牛只在图片上的图片位置。
3.根据权利要求2所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:步骤3)中,除得到牛只在图片上的图片位置外,还得到其置信度。
4.根据权利要求2所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:所述的步骤3)具体包括以下子步骤:
3.1)图片进入faster rcnn网络后,首先进行图片归一化,再经过Resnext作为主网络进行特征提取,再输入到RPN网络得到Proposal做特征映射,最后输出一个长度固定的向量用为后续的分类和边框回归;
3.2)通过Softmax函数进行计算分类,通过边框回归对目标框位置进行位置精修,完成后得到牛的目标检测框,进而得到牛群目标检测模型。
5.根据权利要求4所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:所述的步骤3.1)具体包括:
图片归一化至224*224*3大小,使用Resnext作为主网络进行特征提取,进入Resnext网络后会经过5个卷积层,2个降采样层,生成多个特征图;
设定一个锚点机制,即将特征图中每个点看成是一个组合长方形的中心点,而这个组合长方形是有三种长度3、6、12,三种比例1:1、1:2、2:1组合而成,那么一个中心点就可以衍生出3*3个长方形的框,去掉候选区域中映射到原图上超过原图区域的候选框,这样在一个特征图上衍生出一系列的框,通过框框住的牛身面积判断,低于0.2判定为背景区域,高于0.8判定为牛身,介于两者之间的框删除。
6.根据权利要求4所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:所述的步骤3.2)中通过Softmax函数将多分类的输出值转换为范围在[0,1]的概率分布,Softmax函数定义如下:
其中i为节点的序号,z_i为第i个节点的输出值,C为输出节点的个数,即分类的类别个数。
7.根据权利要求1所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:所述的步骤6)使用残差网络作为主网络,提取特征后送入全连接层分类识别,由此得到牛识别模型。
8.根据权利要求7所述的基于深度学习的智慧牛场的监控与识别方法,其特征在于:所述的步骤6)具体包括以下子步骤:
6.1)将牛身图片归一化至Batch_Size*224*224*3大小,送入特征提取网络进行提取;在特征提取时,将残差块个数设置为18,参差块为3*3卷积+BN+ReLu+3*3卷积+BN+SELayer的网络结构;SELayer是指在Resnext网络基础上加入注意力机制,通过对得到的通道的重要性不同进行权重赋值,得到权重后再与上一层输入的特征相乘,对卷积后的特征进行加权,从而提高识别精度;
6.2)然后把残差块提取的特征转化为Batch_Size*512*7*7大小的特征向量送入全连接层进行分类处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川圣点世纪科技有限公司,未经四川圣点世纪科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011318634.3/1.html,转载请声明来源钻瓜专利网。