[发明专利]一种模式生物追踪系统的目标重识别方法及系统有效
申请号: | 202110472329.8 | 申请日: | 2021-04-29 |
公开(公告)号: | CN113177920B | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 于兴虎;王春翔 | 申请(专利权)人: | 宁波智能装备研究院有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/136;G06T7/187;G06T7/62;G06T7/73;G06N3/04;G06N3/08 |
代理公司: | 北京高沃律师事务所 11569 | 代理人: | 杜阳阳 |
地址: | 315000 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 模式 生物 追踪 系统 目标 识别 方法 | ||
本发明涉及一种模式生物追踪系统的目标重识别方法及系统。该方法包括:获取第一实验条件下的的多帧连续图像,提取每一帧图像内的目标连通域;提取目标连通域中每个孤立的连通域,并根据每个孤立的连通域提取目标的目标位置;提取相邻两帧的孤立的连通域的相交区域;根据相交区域确定初次关联目标;利用匈牙利算法对剩余目标进行处理,确定二次关联目标;根据初次关联目标以及二次关联目标,生成针对不同帧图像内相同单个目标的连续图像序列,并训练卷积神经网络;第二实验条件下的第一帧图像,并利用训练后的卷积神经网络,使得第一帧图像内的目标与第一实验条件下的相同目标相对应。本发明在不同实验条件下进行目标识别的同时提升追踪效率。
技术领域
本发明涉及模式生物追踪系统领域,特别是涉及一种模式生物追踪系统的目标重识别方法及系统。
背景技术
准确跟踪模式生物的运动是显微操作系统运行的基础,同时也是对显微操作的效果验证的重要手段。生物学中常常会做投毒实验和应激反应实验,在放有模式生物的培养皿中放入药品或施加外界刺激,跟踪模式生物的运动和对刺激的反应,通过分析轨迹来评估药物效果和研究模式生物的生理功能。
在模式生物追踪领域,针对单个视频,常用两阶段追踪算法,第一步对各个目标进行检测(如获得各个目标的位置,头部朝向等信息)该步骤一般是首先使用高斯混合模型获得前景信息,之后进行进一步检测,第二步对相邻两帧的目标检测信息,对相邻帧的相同目标进行关联。第二步的传统做法是使用匈牙利算法进行最优指派,但是该算法的时间复杂度为O(n3),即算法的运行时间随目标的数量n呈三次方增长,当目标数量较多时,算法运行效率急剧降低。
在实际操作过程中,不同条件下进行实验会生成多个追踪视频,期望在不同追踪视频的实验条件下也能够实现相同目标的对应,即目标a在第一实验条件下中进行了实验,期望在第二实验条件中依然能识别出目标a,从而比较相同目标在不同实验条件下的行为模式。而以上的两阶段追踪算法只能实现对于单个视频的目标追踪,无法对不同视频的目标进行识别,进而无法比较相同目标在不同实验条件下的行为模式。
发明内容
本发明的目的是提供一种模式生物追踪系统的目标重识别方法及系统,以解决当目标数量较多时,算法运行效率急剧降低,且只能实现对于单个视频的目标追踪,无法对不同视频的目标进行识别,进而无法比较相同目标在不同实验条件下的行为模式的问题。
为实现上述目的,本发明提供了如下方案:
一种模式生物追踪系统的目标重识别方法,包括:
获取第一实验条件下的的多帧连续图像,并提取每一帧所述图像内的目标连通域;
提取所述目标连通域中每个孤立的连通域,并根据每个所述孤立的连通域提取目标的目标位置;
提取相邻两帧且相同目标位置处的所述孤立的连通域的相交区域;
根据所述相交区域确定初次关联目标;
利用匈牙利算法对剩余目标进行处理,确定二次关联目标;
根据所述初次关联目标以及所述二次关联目标,生成针对不同帧图像内相同单个目标的连续图像序列,并根据所述连续图像序列训练卷积神经网络;
获取第二实验条件下的第一帧图像,并利用训练后的卷积神经网络,使得所述第一帧图像内的目标与所述第一实验条件下的相同目标相对应。
可选的,所述根据所述相交区域确定初次关联目标,具体包括:
判断所述相交区域的面积是否大于面积阈值,得到第一判断结果;
若所述第一判断结果表示为所述相交区域的面积大于面积阈值,确定所述相交区域对应的两个目标为同一目标,并将所述两个目标相关联,确定初次关联目标;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波智能装备研究院有限公司,未经宁波智能装备研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110472329.8/2.html,转载请声明来源钻瓜专利网。