[发明专利]多特征融合的动态场景分类方法与装置有效
申请号: | 201611073666.5 | 申请日: | 2016-11-29 |
公开(公告)号: | CN106599907B | 公开(公告)日: | 2019-11-29 |
发明(设计)人: | 曹先彬;郑洁宛;黄元骏;潘朝凤;刘俊英 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 11205 北京同立钧成知识产权代理有限公司 | 代理人: | 杨泽;刘芳<国际申请>=<国际公布>=< |
地址: | 100191 北京市海淀区学*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 特征 融合 动态 场景 分类 方法 装置 | ||
本发明提供一种多特征融合的动态场景分类方法与装置。该方法包括:获取待分类视频;采用C3D特征提取器对待分类视频进行特征提取,获取第一特征信息;采用iDT特征提取器对待分类视频进行特征提取,获取第二特征信息;采用VGG特征提取器对待分类视频进行特征提取,获取第三特征信息;对第一特征信息、第二特征信息和第三特征信息进行融合,获取融合特征;根据融合特征对待分类视频进行分类,得到待分类视频的分类结果。本发明提供的特征融合的动态场景分类方法,采用三种特征提取器提取待分类视频的不同特征,不仅考虑了待分类视频的短时动态特征,还考虑了待分类视频的长时动态特征和静态特征,使得动态场景分类更准确。
技术领域
本发明涉及航空监视技术,尤其涉及多特征融合的动态场景分类方法与装置。
背景技术
随着无人机技术的发展以及国家对低空领域使用的不断开放,无人机被广泛应用于灾情巡查、山区救援、物资输送、样本采集等任务中。带有摄像装置的无人机在飞行过程中进行拍摄,并将画面返回给服务器,服务器可自动根据画面内容进行目标检测跟踪,可以实现自动识别天气、环境、灾情等。
为提高目标检测跟踪的准确度,本领域技术人员除对算法进行了大量研究和改进外,还考虑到目标所在的动态场景的不同,也会严重影响到目标检测跟踪的准确度。因此,本领域技术人员提出在进行目标检测跟踪之前,首先进行动态场景分类。但是,现有动态场景分类方法通常仅基于静态图像进行分类,导致分类精度较差。
发明内容
本发明提供一种多特征融合的动态场景分类方法与装置,用于解决现有动态场景分类方法通常仅基于静态图像进行分类,导致分类精度较差的问题。
一方面,本发明提供一种多特征融合的动态场景分类方法,包括:
获取待分类视频;
采用三维卷积神经网络特征提取器对所述待分类视频进行特征提取,获取第一特征信息;采用改进的稠密轨迹特征提取器对所述待分类视频进行特征提取,获取第二特征信息;采用视觉几何神经网络特征提取器对所述待分类视频进行特征提取,获取第三特征信息;
对所述第一特征信息、所述第二特征信息和所述第三特征信息进行融合,获取融合特征;
根据所述融合特征对所述待分类视频进行分类,得到所述待分类视频的分类结果。
如上所述的多特征融合的动态场景分类方法,所述对所述第一特征信息、所述第二特征信息和所述第三特征信息进行融合,获取融合特征,包括:
获取所述第一特征信息中第一预设维度对应的第一特征数据,获取所述第二特征信息中第二预设维度对应的第二特征数据,获取所述第三特征信息中第三预设维度对应的第三特征数据;
根据所述第一特征数据、所述第二特征数据、所述第三特征数据获取所述融合特征。
如上所述的多特征融合的动态场景分类方法,所述对所述第一特征信息、所述第二特征信息和所述第三特征信息进行融合,获取融合特征之前,还包括:
获取训练视频库中所有训练视频各自的第一特征信息、第二特征信息和第三特征信息;
根据所述所有训练视频各自的第一特征信息、第二特征信息和第三特征信息,获取第一特征信息、第二特征信息和第三特征信息的所有维度的费舍尔判别比;
根据所述第一特征信息中的所有维度的费舍尔判别比确定所述第一特征信息的第一预设维度,根据所述第二特征信息中的所有维度的费舍尔判别比确定所述第二特征信息的第二预设维度,所述第三特征信息中的所有维度的费舍尔判别比确定所述第三特征信息的第三预设维度;
其中,所述训练视频库包括至少两个属于不同类别的训练视频。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611073666.5/2.html,转载请声明来源钻瓜专利网。