[发明专利]一种基于视觉计算视频传输的图像检测与分析方法在审
申请号: | 202010703552.4 | 申请日: | 2020-07-21 |
公开(公告)号: | CN111860327A | 公开(公告)日: | 2020-10-30 |
发明(设计)人: | 王程 | 申请(专利权)人: | 广州道源信息科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 北京广技专利代理事务所(特殊普通合伙) 11842 | 代理人: | 崔征 |
地址: | 510000 广东省广州*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 计算 视频 传输 图像 检测 分析 方法 | ||
本发明属于视频图像检测技术领域,具体涉及一种基于视觉计算视频传输的图像检测与分析方法。本发明包括:(1)动态图像目标检测;(2)设置背景目标的训练数据库地址;(3)设置分类标签,设置背景名以及背景两个标签;(4)分别设置训练神经网络时输入视频的大小、每次训练样本的数目、目标类别数、测试的准确率阈值;(5)构建卷积神经网络模型;(6)设置目标损失函数,并进行训练等。本发明是计算机领域下的视觉计算系统设计,具有高带宽、低延迟、非压缩、适合远距离无损传输等特点。持不少于3种计算资源的异构组合和高效协同,具备高效能计算、多模态图形图像处理、架构动态可重配置等能力。
技术领域
本发明属于视频图像检测技术领域,具体涉及一种基于视觉计算视频传输的图像检测与分析方法。
背景技术
视觉计算主要涉及图像增强、图像拼接、三维表面重构、纹理映射以及目标识别与跟踪等关键技术。动态可重配置计算是指利用现场可编程门阵列、软件可定义等技术,动态改变计算机系统的硬件和软件功能,在有限的计算资源和功耗的情况下灵活地实现多样化嵌入式计算处理功能,显著提升计算机系统的灵活性、可扩展性和可重用性。根据可重配置部分的大小可分为全局动态可重配置和局部动态可重配置。中国作为世界上的人口大国,人口的密度非常高,无论是在日常生活中,还是在工作学习中,只要有人在的地方,都会有大量不可控因素导致这样或者那样的意外发生,进而产生不必要的危险。而随着摄像头的普及,监控网络无处不在,因此,基于视觉计算的情景理解分析就成为了非常必要的选择。通过对各种动态图像的学习,完成基于视觉计算的情景理解分析,包括场景检测和目标检测以及目标行为分析。由于视频监控的需求,检测必须要具有实时性与精确性,这是一项很严峻的挑战。因此实时精确的情景理解分析的研究具有很大的意义。(1)场景理解是情景理解分析试验中很重要的一部分,通过对场景进行高精度检测确定目标所处环境状态,用目标检测算法实现动态图像下的场景的高精度检测。(1)目标的行为检测是情景理解分析试验中另一个非常重要的一部分,人体的姿势估计是行为检测的基础,通过姿势估计算法预测出人的各个关键点,即人的姿势的估计图,(3)在姿势估计图的基础上,就特定行为对其进行了分析,完成行为检测试验,并在系统上进行了实现。因此我们有必要对目标检测方法以及目标姿势估计方法以及相应的行为检测方法进行深入的研究。
发明内容
本发明的目的在于出一种实现在复杂环境下的实时高精度目标检测与跟踪的基于视觉计算视频传输的图像检测与分析方法。
本发明的目的是这样实现的:
一种基于视觉计算视频传输的图像检测与分析方法,包括如下步骤:
(1)动态图像目标检测,建立与测试项目对应的标准值;构建背景目标的训练数据库,由各摄像头采集训练数据库的视频,对背景目标进行边界框标注;
(2)设置分类标签,设置背景名以及背景两个标签,设置背景目标的训练数据库地址,获取目标在测试区的视频图像;
(3)对所述视频图像进行图像预处理,得到预处理视频图像;
(4)分别设置训练神经网络时输入视频的大小、每次训练样本的数目、目标类别数、测试的准确率阈值;放大所述预处理视频图像得到视频图像矩阵,进行背景目标异常处理;
(5)构建卷积神经网络模型,根据所述训练样本的灰度值,确定检测样本的测试值;
(6)设置目标损失函数,并进行训练,比对所述测试值与所述标准值,确定检测结果。
(7)存储单元通过视频传输总线将输入的视频传递给异构计算单元;
(8)异构计算单元经过视觉计算后得到目标识别后的视频,并通过视频传输总线传递给显示设备;
(9)显示设备输出目标识别后的视频。
优选的,所述建立与测试项目对应的标准值,同时进行边缘定位,所述边缘定位步骤包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州道源信息科技有限公司,未经广州道源信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010703552.4/2.html,转载请声明来源钻瓜专利网。