[发明专利]一种基于光流聚类的车载行人区域估计方法有效
申请号: | 201710474004.7 | 申请日: | 2017-06-21 |
公开(公告)号: | CN107292266B | 公开(公告)日: | 2020-05-01 |
发明(设计)人: | 李志慧;胡永利;曲昭伟;宋现敏;陈永恒;陶鹏飞;魏巍;钟涛;马佳磊;李海涛;夏英集 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/46;G06K9/62;G06T7/246;G06T7/254;G06T7/136;G06T7/194;G06T7/11 |
代理公司: | 长春吉大专利代理有限责任公司 22201 | 代理人: | 齐安全;刘驰宇 |
地址: | 130012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 光流聚类 车载 行人 区域 估计 方法 | ||
本发明公开了一种基于光流聚类的车载行人区域估计方法,对摄像机获取的图像进行光流估计,获得图像光流场;再进行光流聚类,从而估计出背景区域;剔除背景区域,使用图分割算法分割前景区;最后对前景区各区域进行判别,识别出有效的行人区域,本发明提出的基于光流聚类的车载行人区域估计方法,避免了传统行人检测系统采用全局模板搜索匹配识别造成的行人识别的盲目搜索,适用于车载环境下的车辆智能辅助驾驶、无人驾驶等,克服了通常的EM算法和K‑means等聚类算法难以确定背景的高斯分布的问题,本方法提出的光流聚类算法可更加有效地估计背景区域,在判别前景行人区域的过程中,利用人体形态特征,可有效地剔除非行人区域,获得行人区域。
技术领域
本发明属于智能交通、智能车辆研究领域,涉及一种基于光流聚类的车载行人区域估计方法,适用于行人检测系统快速定位行人区域。
背景技术
近年来逐渐形成了Haar小波行人检测法、人体形态检测法、HOG+SVM行人检测法等研究成果,推动了智能驾驶技术的发展,这些研究均采用了滑动窗口的行人模板匹配方法来识别行人,但由于模板匹配的全局多尺度窗口搜索策略,造成了行人检测大量的盲目搜索和时间浪费,降低了行人检测的实时性。而行人感兴趣区域(Regions of Interest,ROI)获得行人可能区域的方法可以减少滑动窗口的盲目搜索,提高行人检测的实时性。目前行人ROI检测方法可概括为两类:(1)特征估计法,该方法通过图像纹理、颜色、亮度等特征,估算行人形态、概率密度分布等检测行人ROI。该类方法虽然能够获取行人ROI,但复杂的模型计算反而增加了行人检测的运行时间.(2)运动检测法,该方法利用光流计算和运动分割方法,获取行人区域。如Elzein等人从运动分割的角度为行人ROI估计提供了新的视觉,但该方法缺乏考虑运动场景与行人的运动差异特性,仍无法降低光流场分割计算复杂度。
发明内容
本发明的目的是提出一种基于光流聚类的车载行人区域估计方法,本方法能够有效且快速地识别车辆前方的行人区域,避免传统方法的盲目搜索所造成的时间上的浪费,为车载主动行人保障技术、无人驾驶、智能车辆等研究和应用提供技术支持和依据。
本发明提出的一种基于光流聚类的车载行人区域估计方法是采用如下技术方案实现的:
步骤一、利用车载摄像机拍摄车辆前方道路,通过摄像机获取的图像为RGB三维图像,经过图像灰度化处理得到二维灰度图像,二维灰度图像可视为一个个像素点的亮度值构成的矩阵I(x,y),其中x为图像的像素点的横坐标,y为图像的像素点的纵坐标;
步骤二、光流场是指图像中所有像素点构成的一种二维瞬时速度场,包含了被观察物体的运动信息,还包含有关景物三维结构的丰富信息,光流在物体运动检测方面有着重要应用,光流的计算过程如下:
1)令I(x,y,t)表示图像I(x,y)的时间序列,其中,t为时间,令dx代表横坐标x上的变化量、dy代表纵坐标y上的变化量、dt代表I(x,y,t)在时间t上的变化量,那么在图像光强亮度恒定和物体微小运动的假设下有:
I(x,y,t)=I(x+dx,y+dy,t+dt) (1)
将上式中的I(x+dx,y+dy,t+dt)进行泰勒公式展开:
式中,表示I(x,y,t)对x的偏导数、表示I(x,y,t)对y的偏导数、表示I(x,y,t)对t的偏导数,δ表示高阶项;
结合式(1)和式(2)且忽略高阶项δ,则得到:
令则式(3)表示为
Ixu+Iyv=-It
整理成矩阵形式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710474004.7/2.html,转载请声明来源钻瓜专利网。