[发明专利]一种基于强化学习框架的白盒照片后期处理方法在审

专利信息
申请号: 201810189607.7 申请日: 2018-03-08
公开(公告)号: CN108364269A 公开(公告)日: 2018-08-03
发明(设计)人: 夏春秋 申请(专利权)人: 深圳市唯特视科技有限公司
主分类号: G06T5/00 分类号: G06T5/00
代理公司: 暂无信息 代理人: 暂无信息
地址: 518057 广东省深圳市高新技术产业园*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 后期处理 强化学习 白盒 偏好 滤波器 应用 卷积神经网络 滤波器设计 参数应用 构建系统 配对图像 生成处理 输入图像 网络学习 状态决定 建模 学习 图像 统一
【权利要求书】:

1.一种基于强化学习框架的白盒照片后期处理方法,其特征在于,主要包括后期处理模型(一);滤波器设计(二);网络学习(三)。

2.基于权利要求书1所述的后期处理模型(一),其特征在于,给定一张需要进行后期处理的原始图像,由于摄影师无法仅查看原始输入图像来确定完整的操作序列,为了避免直接从输入推断最终输出,利用一个自动修饰系统进行反馈,有效地学习如何根据反馈的信息选择和应用单个操作,并把后期处理作为决策序列模拟一个连续的决策问题。

3.基于权利要求书2所述的决策序列,其特征在于,把强化学习(RL)问题表示为S是状态空间,是动作空间,特别地,在照片后期处理任务中,S表示图像空间,其中包括输入的原始图像和自动处理中产生的所有中间结果,而表示所有滤波器操作的集合,转移函数p:在采用后将输入状态s∈S映射到其结果状态s′∈S,状态转移表示为si+1=p(si,ai),在输入的原始图像上应用一系列的滤波器以产生状态和动作轨迹:

t=(s0,a0,s1,a1,…,sN-1,aN-1,sN) (1)

其中,si∈S,分别表示状态和动作,N是动作次数,sN是停止状态,RL的中心元素通过奖励函数r:来评估状态执行的步骤,为了在决策过程中选择一个最大化累积奖励的策略π,使用一个随机策略代理,其中策略π:将当前状态s∈S映射到上,表示行为上的概率密度函数集合,当代理策略进入一个状态时,它根据概率密度函数对所执行的动作进行采样,收到采样信息后跟随转换函数进入下一个状态。

4.基于权利要求书3所述的轨迹,其特征在于,给定轨迹t=(s0,a0,s1,a1,…,sN),将回归定义为sk后的折扣回报的总和,通过以下公式给定:

其中γ∈[0,1]是一个折扣系数,为了评估策略,确定以下目标:

其中s0是输入图像,代表期望值,S0是输入数据集,直观地说,目标描述了策略π产生的所有可能轨迹的预期回报,代理任务的目的是最大化目标J(π),该目标与回报函数r中获得的最终图像质量相关,因为图像质量越高,回报越大。

5.基于权利要求书3所述的状态,其特征在于,状态和状态动作对的预期总折扣回报由状态值函数V和动作值函数Q定义:

为了将后期问题适配到RL框架中,将动作分解为两部分:过滤器a1的离散选择和过滤器a2的连续决策,该策略还包括两部分:π=(π12),π1是取得一个状态并在过滤器上返回概率的函数,π2是(s,a1)后直接生成a2的函数,其中π1是随机的,需要进行采样,由于抽样连续随机变量在应用中存在挑战,因此根据最近的实验,通过确定性来处理π2

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市唯特视科技有限公司,未经深圳市唯特视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810189607.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top