[发明专利]基于识别手段和深度学习的区域犯罪预警方法在审
申请号: | 201811113507.2 | 申请日: | 2018-09-25 |
公开(公告)号: | CN109446903A | 公开(公告)日: | 2019-03-08 |
发明(设计)人: | 王妃;杨囡 | 申请(专利权)人: | 王妃 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G08B21/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 300204 天津市*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 公共安全 预警 犯罪心理学 高密度区域 犯罪 科技手段 人力资源 计算机应用 多线程 自学习 最大化 安保 部署 修正 学习 监控 人群 应用 安全 | ||
本发明涉及基于识别手段和深度学习的区域犯罪预警方法,其为犯罪心理学同计算机应用的跨学科应用。主要依靠多线程监控和多种识别手段进行高密度区域人群的公共安全犯罪预警,且该方法具有自我完善,自我修正的自学习功能。其发明方法为利用科技手段实现最大化减少警力部署、安保部署,节省人力资源浪费,却实现更加安全,可靠地公共安全保障。
技术领域
该发明方法涉及计算机应用、犯罪心理学等学科的综合应用。
背景技术
现有对于犯罪预警的方法,主要为四种,其一是利用有犯罪前科的人员档案作为预测;二为仅利用表情和行为作为的监控识别犯罪预警的方法;其三为利用个人的个人信息进行大数据分析推断其具有的犯罪可能性;其四为人眼的经验判断。
以上几种方法,在现有犯罪预警的研究中具有代表性。但以上方法,都有几大弊端,如第一种方没有办法预判无犯罪记录人的即将犯罪。第二种对犯罪预警的识别方法过于单一,识别评判标准具体阀值没有确定,且无法对于密度大的人群流进行判别。第三种涉及个人隐私,且并不具有科学性。其四容易受到主观影响。
那么如何形成一种综合解决以上问题的犯罪预警方法,并能够实现在人流密度大的区域进行多线程监控预警,就是本发明的主要目的。
发明内容
该发明方法大致流程如图1所示。
该发明方法主要实现目的是建立一种可以在高密度人群区域进行犯罪预警的方法,该方法可以最大化减少警力部署、安保部署节省人力资源浪费,却实现更加安全,可靠地安全保障。
该方法实现将对一个区域的全部人员进行跟踪式监控,并同时对每一个人员进行识别判断,及时预警,且该系统具有不断自我学习校正,优化的优点。
该发明方法所指的区域是指摄像头集群到同一台服务器的区域,但不局限于该区域,该区域可以扩大为利用局域网,或者互联网获取的其他摄像头采集的数据区域,所以本发明所指“区域”可以为任意大小。
该发明方法可以用系统的形式实现。
该发明以系统形式实现全部特征功能时,需要由高性能信息存储服务器、高性能数据处理服务器、超高清摄像头、网关等多个硬件作为硬件支撑,也可以依靠现有监控系统硬件。
该方法需要对特定区域进行多线程监控,同时对该区域的所有人员进行全程跟踪监控。对于其中判断为高危预警的人员进行特殊标记提醒或报警,对于可能预警的人员进行标识。该多进程同时进行区域内所有人员监控,并建立临时ID为每一个人员,区域内的人员,从进入区域便开始被监控,并获得属于他的ID,直到出监控区。当再次进入区域时,将会再次被监控,并寻找数据库中相同人员特征作比较,若为同一人则使用同一ID进行监控数据存储,该数据ID可以为数据ID。
该方法可以为每一个ID人员建立面部深度立体模型或步态模型,以便于根据公安数据库中的数据进行数据比对。
以上监控方法也可以同公安机关数据库进行联网,获取该ID的人员信息。
该方法主要以多种识别方式,如微表情识别、目光与摄像机叠交频率识别、小行为识别、大行为识别、眨眼频率、人体热感应识别等多种识别方式共同进行识别判定。主要依据犯罪心理学对于犯罪前易有的犯罪心理导致的对应身体行为、表情、身体热度分布、眨眼频率变化等,一些犯罪前的特定心理状态导致的外显特征作为犯罪判断值进行判断识别。
该识别方式,不局限于以上例举的方式,主要以更加准确的判断犯罪预警为目的。
通过以上多种方法获得该区域人员的“可能犯罪”、“高危犯罪”人员,并进行预警。
该方法形成的系统也可以与公安系统进行数据库对接,获得有犯罪记录的人员信息来增加犯罪预警的参考数据。
也可以根据公安系统的数据库进行ID人员的数据读取,获得人员信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于王妃,未经王妃许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811113507.2/2.html,转载请声明来源钻瓜专利网。