[发明专利]一种基于深度循环注意力的图像多目标提取方法及系统在审
申请号: | 202111330682.9 | 申请日: | 2021-11-11 |
公开(公告)号: | CN114092422A | 公开(公告)日: | 2022-02-25 |
发明(设计)人: | 桂彦;魏武;张珍艳;周炳强 | 申请(专利权)人: | 长沙理工大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11;G06T7/194;G06K9/62;G06N20/00;G06V10/77;G06V10/774;G06V10/82 |
代理公司: | 长沙启昊知识产权代理事务所(普通合伙) 43266 | 代理人: | 谢珍贵 |
地址: | 410114 湖南省*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 循环 注意力 图像 多目标 提取 方法 系统 | ||
1.一种基于深度循环注意力的图像多目标提取方法,其特征在于,包括:构建目标对象分割网络模型,其中,
对图像生成待分割目标对象的交互点集,并将每一个目标对象的交互点集转换为距离图,其中,所述距离图用于描述所述图像中的各个像素点与选择出的至少一个像素点之间的空间距离关系,所述待分割目标对象包括一个或多个;
将所述图像经过基础网络,得到与原图像大小相同的深度视觉特征,在深度视觉特征的基础上得到外观嵌入特征;
根据所述距离图和所述深度视觉特征学习同一目标对象和不同目标对象之间交互点的竞争,获得待分割目标对象的注意力图和背景的注意力图;
根据所述待分割目标对象的注意力图、所述背景的注意力图和外观嵌入特征进行分割得到目标对象分割结果。
2.根据权利要求1所述的方法,其特征在于,还包括:
对所述目标分割网络模型进行训练。
3.根据权利要求2所述的方法,其特征在于,对所述目标分割网络模型进行训练包括:
通过最小化损失函数训练整个多目标分割网络模型。
4.根据权利要求1至3中任一项所述的方法,其特征在于,对所述图像生成待分割目标对象的交互点集包括:
在所述待分割目标对象的像素点集中随机选取一像素点作为标记目标对象的初始交互点,后续每次随机采样则在产生的候选交互点集中任选一个像素点作为交互点。
5.根据权利要求1至3中任一项所述的方法,其特征在于,对所述图像生成待分割目标对象的交互点集包括:
初始随机选取候选交互点集R1中一个像素点作为标记所述待分割目标对象的交互点,后续每次随机采样的交互点则是候选交互点集Ri中与交互点集Pi-1中具有最大欧氏距离的像素点,其中,Pi-1为前i-1次采样的交互点集。
6.一种基于深度循环注意力的图像多目标提取系统,其特征在于,包括:
标记模块,用于对图像生成待分割目标对象的交互点集,并将每一个目标对象的交互点集转换为距离图,其中,所述距离图用于描述所述图像中的各个像素点与选择出的至少一个像素点之间的空间距离关系,所述待分割目标对象包括一个或多个;
映射模块,用于将所述图像经过基础网络,得到与原图像大小相同的深度视觉特征,在深度视觉特征的基础上得到外观嵌入特征;
学习模块,用于根据所述距离图和所述深度视觉特征学习同一目标对象和不同目标对象之间交互点的竞争,获得待分割目标对象的注意力图和背景的注意力图;
分割模块,用于根据所述待分割目标对象的注意力图、所述背景的注意力图和外观嵌入特征进行分割得到目标对象分割结果。
7.根据权利要求6所述的系统,其特征在于,还包括:
训练模块,用于对标记模块、映射模块、学习模块和分割模块构建的所述目标分割网络模型进行训练。
8.根据权利要求6所述的系统,其特征在于,对所述目标分割网络模型进行训练包括:
通过最小化损失函数训练整个多目标分割网络模型。
9.根据权利要求6至8中任一项所述的系统,其特征在于,所述标记模块用于:
在所述待分割目标对象的像素点集中随机选取一像素点作为标记目标对象的初始交互点,后续每次随机采样则在产生的候选交互点集中任选一个像素点作为交互点。
10.根据权利要求6至8中任一项所述的系统,其特征在于,所述标记模块用于:
初始随机选取候选交互点集R1中一个像素点作为标记所述待分割目标对象的交互点,后续每次随机采样的交互点则是候选交互点集Ri中与交互点集Pi-1中具有最大欧氏距离的像素点,其中,Pi-1为前i-1次采样的交互点集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长沙理工大学,未经长沙理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111330682.9/1.html,转载请声明来源钻瓜专利网。