[发明专利]一种基于视觉感知的多视点图像颜色校正方法有效
申请号: | 200910155730.8 | 申请日: | 2009-12-23 |
公开(公告)号: | CN101729911A | 公开(公告)日: | 2010-06-09 |
发明(设计)人: | 邵枫;郁梅;蒋刚毅 | 申请(专利权)人: | 宁波大学 |
主分类号: | H04N9/64 | 分类号: | H04N9/64 |
代理公司: | 宁波奥圣专利代理事务所(普通合伙) 33226 | 代理人: | 程晓明 |
地址: | 315211 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 感知 视点 图像 颜色 校正 方法 | ||
技术领域
本发明涉及一种多视点图像的处理方法,尤其是涉及一种基于视觉感知的多视点图像颜色校正方法。
背景技术
多视点视频系统能够给用户提供多个视角的视频内容,用户可以根据个人的喜好选择不同的视角,并在观看过程中随意改变欣赏视角,因此多视点视频系统被国际标准组织MPEG(Moving Picture Experts Group,运动图像专家组)称为下一代视频系统的发展方向。通常,多视点视频系统如图1所示,由以下几个部分组成:视频捕获、预处理、多视点视频编码器、多视点视频解码器、虚拟视点绘制和显示部分。视频捕获通常由具有n+1个相机(或摄像机)的多视点平行相机系统实现,图2给出了多视点平行相机系统成像示意图,n+1个相机(或摄像机)被平行地放置。由于在多视点视频捕获过程中各个相机的场景光照、相机标定、CCD噪声、快门速度和曝光等要素不一致,会导致采集的各视点间可能存在亮度或色度差异,将会给后续的多视点视频编码、虚拟视点绘制和多视点视频三维显示带来极大的困难。因此,为了得到更好的编码性能和虚拟视点绘制效果,需要在进行多视点视频编码前加入颜色校正作为预处理过程。
目前,相关业内研究人员已提出了多种颜色校正方法,但绝大多数的研究只是集中在全局的图像间或在图像的局部区域间,通过区域匹配、特征匹配或直方图匹配建立颜色映射关系,并以此映射关系对源图像进行校正。区域匹配需要将目标图像和源图像进行聚类分割,在最相似的区域间建立颜色映射关系,并以此映射关系对源图像进行校正;特征匹配通过提取目标图像和源图像的尺度不变的特征信息,在最相似的特征间建立颜色映射关系,并以此映射关系对源图像进行校正;直方图匹配通过计算目标图像和源图像的累计直方图,只要满足源图像和目标图像具有相同的直方图分布,就可以将目标图像的直方图映射到源图像。但由于上述颜色校正方法对不同的视觉感知区域采用了相同的映射关系,这样会导致校正图像在主观视觉上存在较大的偏差,从而导致校正图像的视觉舒适度差;此外,上述颜色校正方法的鲁棒性较差。
发明内容
本发明所要解决的技术问题是提供一种在保证多视点图像颜色校正精确性的同时,提高颜色校正方法的鲁棒性以及校正图像的视觉舒适度的基于视觉感知的多视点图像颜色校正方法。
本发明解决上述技术问题所采用的技术方案为:一种基于视觉感知的多视点图像颜色校正方法,包括以下步骤:
①将同一时刻由多视点平行相机系统拍摄的多视点图像中的一个视点图像定义为目标图像,记为T,而将其它视点图像定义为源图像,记为S,定义目标图像T的平面坐标系为x′y′平面坐标系,定义源图像S的平面坐标系为xy平面坐标系,记目标图像T中的所有像素点构成的集合为{(T)P(x1′,y1′)},记源图像S中的所有像素点构成的集合为{(S)P(x1,y1)};
②分别提取目标图像T的显著性分布图和源图像S的显著性分布图,记目标图像T的显著性分布图为{(T)S},记源图像S的显著性分布图为{(S)S};
③利用期望最大算法分别估计目标图像T的显著性分布图{(T)S}和源图像S的显著性分布图{(S)S}的高斯混合模型,记目标图像T的显著性分布图{(T)S}的高斯混合模型为(T)Θ,记源图像S的显著性分布图{(S)S}的高斯混合模型为(S)Θ,其中,K表示高斯混合模型中高斯分量的总个数,ωi表示第i个高斯分量的加权系数,μi表示第i个高斯分量的均值,σi表示第i个高斯分量的标准差;
④根据目标图像T的显著性分布图{(T)S}及显著性分布图{(T)S}的高斯混合模型(T)Θ,提取目标图像T的视觉注意力区域,根据源图像S的显著性分布图{(S)S}及显著性分布图{(S)S}的高斯混合模型(S)Θ,提取源图像S的视觉注意力区域;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200910155730.8/2.html,转载请声明来源钻瓜专利网。