[发明专利]业务流程抽取领域过程性视频的过程模型抽取方法在审
申请号: | 202110939984.X | 申请日: | 2021-08-17 |
公开(公告)号: | CN113723230A | 公开(公告)日: | 2021-11-30 |
发明(设计)人: | 曾庆田;邹明浩;陈双 | 申请(专利权)人: | 山东科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06N3/04;G06Q10/06 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 266590 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 业务流程 抽取 领域 过程 视频 模型 方法 | ||
1.一种业务流程抽取领域过程性视频的过程模型抽取方法,其特征在于,包括:
第一步,数据筛选及扩充。从已有的公开视频数据集中,筛选出包含复杂过程的视频数据,并且采用数据增强技术,扩展数据集的数量,解决样本数据不平衡的问题并且完成数据标注工作。
第二步,图像灰度化处理。将原视频中的RGB彩色视频帧进行灰度化处理,得到灰度图像,降低了数据维数,保留了梯度信息,避免了条带失真。
第三步,运动目标提取。根据上述第二步得到的灰度图像,采用KNN算法,结合静态背景图像估计和像素级贝叶斯分割,仅使用少量图像便可以进行背景建模,去除背景等无用信息,精确提取运动目标,得到运动目标图像。
第四步,图像噪声处理。根据上述第三步得到运动目标图像,采用中值滤波技术对图像进行非线性滤波,有效消除椒盐噪声,保护边缘信息。
第五步,开运算处理。根据上述第四步得到噪声处理过的图像,进行开运算处理,去除图像中孤立点、毛刺和小桥,平滑形状边界并且不改变其面积。
第六步,动作分割。原视频数据经过以上处理,得到一系列图像序列。从中以固定帧数N进行动作分割,每个被分割出来的N帧序列对应一个具体的动作标签。
第七步,动作识别。以Two-Stream Inflated 3D ConvNet神经网络作为动作识别的基本模型,在训练过程中,将N帧动作序列及其动作标签作为数据的基本单元,输入到模型进行训练并保存训练后的模型;在预测过程中,加载训练好的模型,输入N帧动作序列,即可得到动作识别的结果。
第八步,BPMN模型生成。将上述第七步得到的动作识别结果转化为日志文件,采用BPMNMiner算法,挖掘流程模型。
2.如权利要求1所述业务流程抽取领域过程性视频的过程模型抽取方法,其特征在于,所述第一步包括:从互联网资源中获取一系列公开的视频数据集,并从中筛选出包含动作流程信息的视频数据。采用图像旋转、平移、对比度、亮度修改等图像增强技术扩展视频数据数量,平衡样本分布。并基于Python设计简易的视频标注工具,在视频中标注出动作的类别、起始位置、终止位置。
3.如权利要求1所述业务流程抽取领域过程性视频的过程模型抽取方法,其特征在于,所述第二步包括:采用图像灰度化中的加权平均法,将彩色图像的R、G、B三个分量以不同的权值进行加权平均,计算方法如公式1所示
Gray(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.114*B(i,j) (1)
其中i∈[1,2,...,H],j∈[1,2,...,W],H、W分别表示原图像的高和宽。
4.如权利要求1所述业务流程抽取领域过程性视频的过程模型抽取方法,其特征在于,所述第三步包括:使用概论前景估计算法(使用贝叶斯估计鉴定前景),这是一种自适应的估计,新观察到的对象比旧的对象具有更高的权重,从而对光照变化产生适应,更准确地提取出运动目标,此处所述方法借助于OpenCV工具库实现于Python语言中。
5.如权利要求1所述业务流程抽取领域过程性视频的过程模型抽取方法,其特征在于,所述第四步包括:用像素点邻域灰度值的中值来代替该像素点的灰度值,让周围的像素值接近真实的值从而消除孤立的噪声点,计算方法如公式2所示:
g(x,y)=Med{f(x-k,y-l),(k,l∈M)} (2)
其中,f(x,y)、g(x,y)分别为原始图像和中值滤波处理后图像,M是大小为N*N二维模板,N的取值为正奇数,Med表示将区域中样本值排序并取中值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东科技大学,未经山东科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110939984.X/1.html,转载请声明来源钻瓜专利网。