[发明专利]一种双目视觉自由立体显示系统有效
申请号: | 201510962106.4 | 申请日: | 2015-12-18 |
公开(公告)号: | CN105611270B | 公开(公告)日: | 2017-11-17 |
发明(设计)人: | 李开;曹计昌;陈奕鸿;纪坤;李展;杨江;王照清 | 申请(专利权)人: | 华中科技大学 |
主分类号: | H04N13/00 | 分类号: | H04N13/00;H04N13/04 |
代理公司: | 华中科技大学专利中心42201 | 代理人: | 曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 双目 视觉 自由 立体 显示 系统 | ||
技术领域
本发明属于图像处理技术领域,更具体地,涉及一种双目视觉自由立体显示系统。
背景技术
随着科技的进步,数字多媒体技术也不断发展,如今3D视频应用已出现在人们的生活中,例如在娱乐领域、军事领域及医疗领域等都能见其身影。观看一般立体视频时,人们需要佩戴红蓝眼镜或偏振光眼镜等辅助设备,当观看者观看久了会产生疲劳感,限制了立体视频显示技术的推广应用。
所谓自由立体显示技术,是指观看者在不需要任何辅助设备的条件下,直接观察显示器屏幕就能感知立体感的一种技术,即裸眼3D技术。自由立体显示系统主要包括视频信息的采集、编码、传输和显示这几个步骤。现有的自由立体显示系统在显示端需要多个视点的信息,这样在观看范围内,观看者左右眼能接收到两幅具有视差的图像,经过大脑的融合处理从而感知到立体感。
自由立体显示系统对实时性要求高,如何做到实时的显示是一难点。现有的自由立体显示系统不能完全做到真正的实时显示,都是先将采集好的视频利用PC软件的处理方式提取场景的深度信息,接着由深度信息生成立体视频并保存,最后对生成的立体视频进行播放。这种方式不能很好实现对场景信息的实时采集。而且常用的提取场景深度信息的方法以及由深度信息生成立体视频的方法都是比较耗时的,采用通用PC软件处理方式很难保证立体视频的实时性。
发明内容
针对现有技术的缺陷,并从成本和实用性方面考虑,本发明提供一种双目视觉自由立体显示系统,利用双目相机对现实场景进行采集,将采集得到的视频经由接口转换电路输出给FPGA加速电路,利用FPGA加速电路对采集到的视频数据逐帧地进行立体匹配、多视点生成及立体图像合成,并将合成的立体图像输出到自由立体显示器进行显示。本发明利用FPGA支持并行和流水处理的特性,对立体匹配、多视点生成、立体图像合成这些耗时的操作进行加速处理,以达到实时的自由立体显示,使观看者在不需要任何辅助设备的条件下,可以在自由立体显示器前方的较大范围内观看到连续、流畅的立体视频。实验验证本发明显示1920×1080分辨率的立体视频的帧速约为每秒30帧。
本发明提供一种双目视觉自由立体显示系统,包括:
(权1)。
与现有技术相比,本发明具有以下优点:
(1)利用双目相机对自然场景进行采集,接着将采集到的视频数据进行立体匹配处理得出视差信息,最后由基于深度图像的绘制(Depth-Image-Based Rendering,DIBR)技术实现多视点的绘制,为自由立体显示提供多视点信息,采用这样的处理方法降低了系统的传输带宽、存储空间以及成本;
(2)充分利用FPGA支持并行和流水处理的特性,将一些处理比较耗时的操作(例如立体匹配、多视点绘制及立体视频的合成)采用硬件来进行加速处理,大大提高系统处理速度,实现立体视频的实时显示;
(3)系统的集成性高,利用FPGA实现整个与自由立体显示相关的处理,通过提供相应的视频数据,就能得到用于显示的立体视频;
(4)系统的实用性好,相比其他加速方法(例如采用GPU),FPGA不仅能实现并行处理,同时也降低系统的功耗,利用本发明进行自由立体显示比较方便。
附图说明
图1是本发明一种双目视觉自由立体显示系统结构示意图;
图2是本发明FPGA加速电路的硬件结构框图;
图3是本发明FPGA逻辑处理流程图;
图4是本发明FPGA解析LVDS差分信号的硬件实现图;
图5是本发明立体匹配处理流程图;
图6是本发明生成一幅虚视图的处理流程图;
图7是本发明合成立体图的处理流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510962106.4/2.html,转载请声明来源钻瓜专利网。