[发明专利]基于在线注意力累积的挖掘目标物体区域的方法有效
申请号: | 201910715341.X | 申请日: | 2019-08-05 |
公开(公告)号: | CN110458221B | 公开(公告)日: | 2021-03-16 |
发明(设计)人: | 程明明;姜鹏涛;张长彬;侯淇彬;曹洋 | 申请(专利权)人: | 南开大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/20 |
代理公司: | 天津耀达律师事务所 12223 | 代理人: | 侯力 |
地址: | 300071*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 在线 注意力 累积 挖掘 目标 物体 区域 方法 | ||
1.一种基于在线注意力累积的挖掘目标物体区域的方法,其特征在于,该方法包含如下步骤:
a.在训练过程中为每一个目标物体维护一个存储图,通过不断融合新的迭代过程中生成的注意力图来更新存储图,通过存储图记录注意力出现的目标物体的位置;
b.在训练过程中,用维护的对应目标物体存储图作为监督信息,使用改进的交叉熵损失函数作为另一个分支的损失函数,对另一个分支进行监督,即使用损失函数让另一个分支学习该监督信息,随后将通过该分支得到的注意力图对存储图进行更新,使注意力关注更多的区域,进而进一步提高挖掘的目标物体区域的质量;
所述改进的交叉熵损失函数L分为两部分,一部分为前景交叉熵损失函数另一部分为背景交叉熵损失函数
2.根据权利要求1所述的基于在线注意力累积的挖掘目标物体区域的方法,其特征在于:步骤a所述融合的方式是采用最大值融合方式或平均融合方式。
3.根据权利要求1或2所述的基于在线注意力累积的挖掘目标物体区域的方法,其特征在于:对于目标类别c,改进的交叉熵损失函数L计算方式为
对于类别c的背景区域优化分支产生的注意力图在像素j处的推断分数为那么计算方式为
对于类别c的前景区域用于监督的存储图的推断分数为计算方式为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910715341.X/1.html,转载请声明来源钻瓜专利网。