[发明专利]用于生成具有对象预定计数的图像的生成器网络在审
申请号: | 202111149969.1 | 申请日: | 2021-09-29 |
公开(公告)号: | CN114332552A | 公开(公告)日: | 2022-04-12 |
发明(设计)人: | A·萨森德兰;K·斯库布奇;M·基普尔 | 申请(专利权)人: | 罗伯特·博世有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 中国专利代理(香港)有限公司 72001 | 代理人: | 任一方;吕传奇 |
地址: | 德国斯*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 生成 具有 对象 预定 计数 图像 生成器 网络 | ||
用于生成具有对象预定计数的图像的生成器网络。一种用于训练生成器网络的方法,该生成器网络被配置为生成具有多个对象的图像,该方法包括:●提供训练图像集合;●提供生成器网络;●提供鉴别器网络;●抽取噪声样本和对象的目标计数;●由生成器网络将噪声样本和对象的目标计数映射到生成图像;●从包括生成图像以及训练图像的池(P)随机抽取图像;●将随机抽取的图像供应到鉴别器网络,从而将它们映射到如下的组合:相应图像是训练图像还是生成图像的判定;●用如下目标优化表征鉴别器网络行为的鉴别器参数:改进鉴别器网络在生成图像和训练图像之间进行区分所具有的准确度;●用退化所述准确度的目标优化表征生成器网络行为的生成器参数。
本发明涉及用于产生合成图像的生成器网络的对抗性训练,该合成图像尤其可以用于训练图像分类器或用于获得机器的空间设计。
背景技术
图像分类器需要用训练图像来训练,对于训练图像,分类器应该分配给相应图像的“真实”分类分数是已知的。获得具有足够可变性的训练图像的大集合是耗时且昂贵的。例如,如果图像分类器要对利用车辆携带的一个或多个传感器捕获的交通情形进行分类,则需要长时间的试驾来获得足够数量的训练图像。训练所需的“真实”分类分数频繁地需要通过手动注释训练图像来获得,这也是耗时且昂贵的。此外,诸如暴风雪的一些交通情形在训练图像的捕获期间仅罕见地发生。
为了缓解训练图像的稀缺性,可以训练生成对抗性网络(GAN)来生成看起来像现实图像的合成图像,并且可以将其用作图像分类器的训练图像。条件GAN(cGAN)可以用于生成合成图像,所述合成图像属于真实感图像分布的特定模式。例如,条件GAN可以生成属于分类的特定类的合成图像。
DE 10 2018 204 494 B3公开了一种生成合成雷达信号作为分类器训练材料的方法。
发明内容
发明人已经开发了一种用于训练生成器网络的方法,该生成器网络被配置为生成具有多个对象的图像。
在该方法的过程中,提供了训练图像集合。此外,对于每个训练图像,提供相应训练图像包含的对象的至少一个实际计数。特别地,对象的该实际计数可以是多类计数向量,其包括针对多个对象类的单独计数。
此外,提供了一种生成器网络,其被配置为将噪声样本和对象的至少一个目标计数的组合映射到生成图像。这样的生成器网络可以例如从被配置为将噪声样本映射到生成图像的生成器网络产生。例如,这样的现有生成器网络的输入层可以被修改以适应目标计数的输入。像实际计数一样,目标计数可以是多类计数向量。
提供了一种鉴别器网络。该鉴别器网络被配置为将图像映射到以下各项的组合:该图像是训练图像还是由生成器网络产生的生成图像的判定,以及该图像中对象的至少一个预测计数。同样,对象的预测计数可以是多类计数向量。仅在训练期间需要鉴别器网络。在训练之后,完成的生成器网络可以被独自使用。
对于训练,随机抽取噪声样本和对象的目标计数。使用生成器网络,这些噪声样本和对象的目标计数被映射到生成图像。
生成图像与训练图像一起池化。从该池,图像被随机抽取并供应到鉴别器网络。对于每个抽取的图像,鉴别器网络输出相应图像是训练图像还是生成图像的判定,以及还有该图像中对象的至少一个预测计数。该预测计数也可以是多类计数向量。
对表征鉴别器网络行为的鉴别器参数用如下目标进行了优化:改进鉴别器网络在生成图像和训练图像之间进行区分所具有的准确度。与此同时,用退化所述准确度的目标优化表征生成器网络行为的生成器参数。
该部分训练是对抗性的:通过不断的竞争,生成器网络被训练以生成越来越好的“伪造品”,用此来“愚弄”鉴别器网络,并且鉴别器网络被训练以变得越来越善于发现这些“伪造品”。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于罗伯特·博世有限公司,未经罗伯特·博世有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111149969.1/2.html,转载请声明来源钻瓜专利网。