[发明专利]一种基尼指数引导的基于自训练的语义分割方法在审

专利信息
申请号: 202110318561.6 申请日: 2021-03-25
公开(公告)号: CN113095328A 公开(公告)日: 2021-07-09
发明(设计)人: 王立春;胡玉杰;王少帆;孔德慧;李敬华;尹宝才 申请(专利权)人: 北京工业大学
主分类号: G06K9/34 分类号: G06K9/34;G06K9/62;G06N3/04;G06N3/08
代理公司: 北京思海天达知识产权代理有限公司 11203 代理人: 沈波
地址: 100124 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 指数 引导 基于 训练 语义 分割 方法
【权利要求书】:

1.一种基尼指数引导的基于自训练的语义分割方法,其特征在于:利用合成数据集作为源域,真实数据集为目标域;训练时,在域间自适应网络输入源域和目标域图像进行训练,训练完成后,将目标域图像进行划分输入到域内自适应网络进行训练,得到最优分割结果;

具体方法步骤如下:

步骤(1),将源域数据集和目标域数据集随机各取一张RGB图像作为一个batch输入语义分割网络Gte

步骤(2),对源域图像,基于网络最后两层的输出预测图和groundtruth计算交叉熵损失,并将源域最后两层的损失进行加权求和;

步骤(3),对目标域图像,最后两层的输出预测图分别计算基尼指数及不确定性损失,并将目标域最后两层的损失加权求和;

步骤(4),将步骤(2)计算的加权损失和步骤(3)计算的加权损失进行求和,利用误差反向传播优化模型,迭代到模型的损失小于一定阈值后,这一batch数据训练结束;

步骤(5),回步骤1继续选取新的batch数据,重复步骤1到步骤5直到完成2000个batch的训练并保存所训练的模型;

步骤(6),重复步骤(1)至步骤(5)直到共训练120000个batch数据,即一共保存60个模型;

步骤(7),将保存的60个模型在目标域验证集进行测试,利用准确率最好的模型计算目标域训练集图像的输出预测,计算输出预测对应的基尼指数并基于基尼指数对目标域训练集图像赋予伪标签;

步骤(8),将源域数据集和目标域数据集随机各取一张RGB图像作为一个batch作为输入,训练语义分割网络Gst

步骤(9),对源域图像,基于最后两层的输出预测图和groundtruth计算交叉熵损失,并将源域最后两层的损失进行加权求和;

步骤(10),对目标域图像,最后两层的输出预测图分别和伪标签计算交叉熵损失,并将目标域最后两层的损失进行加权求和;

步骤(11),对目标域图像,最后两层的输出预测图分别计算基尼指数及不确定性损失,并将目标域最后两层的损失加权求和;

步骤(12),将步骤(9)、步骤(10)和步骤(11)的加权损失进行求和,利用误差反向传播优化模型,迭代到模型的损失小于一定阈值后,这一batch数据训练结束;

步骤(14),回步骤8继续选取新的batch数据,重复步骤8到12直到完成2000个batch的训练并保存所训练的模型,共训练120000个batch数据,即一共保存60个模型;

步骤(15),测试时将所保存的60个模型在目标域测试集进行测试,获取最终分割结果。

2.根据权利要求1所述的一种基尼指数引导的基于自训练的语义分割方法,其特征在于:所搭建的模型为无监督领域自适应网络,网络整体结构包括两个子网络Gte和Gst;首先训练网络Gte;随后依据网络Gte对目标域预测的不确定性度量结果选取目标域图像的伪标签,给相应的目标域图像赋予伪标签后训练语义分割网络Gst,通过增加有效的监督信息提高对目标域图像的预测准确性。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110318561.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top