[发明专利]基于图像采集功能实现人流密集区域行为分析判断的工作方法有效

专利信息
申请号: 201710910595.8 申请日: 2017-09-29
公开(公告)号: CN107644218B 公开(公告)日: 2018-12-28
发明(设计)人: 杨晓凡;刘玉蓉 申请(专利权)人: 广州市冠腾通讯科技有限公司
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62
代理公司: 北京华识知识产权代理有限公司 11530 代理人: 刘艳玲
地址: 510630 广东省广州市*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 图像 采集 功能 实现 人流 密集 区域 行为 分析 判断 工作 方法
【权利要求书】:

1.一种基于图像采集功能实现人流密集区域行为分析判断的工作方法,其特征在于,包括如下步骤:

S1,通过图像采集模块对密集人群中人体特征图像和人脸特征图像分别进行采集,建立初步筛选模型,从而提炼出进入人流密集区域的人员属性;

所述S1包括:

S1-1,假设同一用户进入人流密集区域都为新用户,其中如果包括服务人员或者频繁进出的人员,在这个模型中并不考虑,因为采集足够多的样本之后,服务人员或者频繁进出的人员的数量可以忽略不计,从人流密集区域离开则设定为相应人员认证结束,通过获取图像采集模块的图像信息对图像中的人体特征图像和人脸特征图像进行判断,设置图像数据信息坐标(x,y)进行图像获取,将坐标(x,y)作为图像的基础点,根据坐标(x,y)为原点分别设置扫描权重

其中p为图像中的人数获取因子,对(x,y)坐标的四个方位进行开平方运算,n为正整数,nvalid为获取的有效人数判定阈值,h(i,j)为一个方位中获取的人体特征图像i和人脸特征图像j的个数,

S1-2,设一个方位中所获取的人体特征图像权值向量为bi=A(c-w)×(cw),A是人体基础特征c和手带物品特征w的出现概率值,cw为人体基础特征和手带物品特征共同出现的定义值;获取一个方位人脸特征图像权值向量为fj=B×(C·T),B是获取人脸特征概率值,C为人脸表情特征集合,T为人脸识别成功的单位区域的统计系数;其中C={smile,openmouth,downhead,uphead,weeping,halfface}

S1-3,保证获取信息的稳定性,根据bi和fj的向量值选取多区域的样本进行计算,然后通过初步筛选公式对图像进行初步筛选,其中,λ4为图像中全方位第i个人体特征图像的第j个人脸表情集合的计算参数,β4为图像中全方位第i个人体特征图像的第j个人脸表情集合的匹配参数,Li,j为图像中的人员总体出现次数,Qi,j为图像中初步筛选过程中的人流密集区域的条件概率值,σ2(i,j)为人流密集区域人员密集程度的判断极值参数,Pi,j为人流密集区域的历史人员统计数值;

S1-4,通过上述初步筛选之后,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人脸表情特征集合中每个属性值,

微笑属性值Csmile=∑jj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;

张嘴属性值Copenmouth=∑jj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;

低头属性值Cdownhead=∑jj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;

抬头属性值Cuphead=∑jj·εxj·εyj,其中εxj和δyjε分别为X轴抬头特征因子和Y轴抬头特征因子;

哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;

侧脸属性值Chalfface=∑jj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;

对初步筛选重复执行,直到产生的重复率上升后,结束S1-1至S1-3的步骤;

S2,根据初步筛选模型对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行再次匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。

2.根据权利要求1所述的基于图像采集功能实现人流密集区域行为分析判断的工作方法,其特征在于,所述S2包括:

S2-1,将整个人流密集区域图像数据进行划分,形成监视窗序列对(M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;

S2-2,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度

其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度,E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,

将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数

其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像数据信息坐标(x,y)间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子;

S2-3,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S2-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤S2-4;

S2-4,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值

D[i,j]=maxFi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+minFi,j

其中,maxFi,j为人体特征图像和人脸特征图像的变化度的最大值,minFi,j为人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初步筛选决策值,P(i,j,rx,y)为人流密集区域结果判断决策值,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初步筛选决策值是根据历史特征图像数据进行密集区域的初步筛选,对于结果判断决策值是通过S2-1至S2-4判断之后进行优化后的判断决策值。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州市冠腾通讯科技有限公司,未经广州市冠腾通讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201710910595.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top