[发明专利]一种基于CUDA的快速非重叠模板匹配计算方法在审
申请号: | 202010658627.1 | 申请日: | 2020-07-09 |
公开(公告)号: | CN111913798A | 公开(公告)日: | 2020-11-10 |
发明(设计)人: | 张建国;侯锐;李凯凯;韩红 | 申请(专利权)人: | 太原理工大学 |
主分类号: | G06F9/50 | 分类号: | G06F9/50 |
代理公司: | 太原高欣科创专利代理事务所(普通合伙) 14109 | 代理人: | 冷锦超;邓东东 |
地址: | 030024 *** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 cuda 快速 重叠 模板 匹配 计算方法 | ||
1.一种基于CUDA的快速非重叠模板匹配计算方法,其特征在于:包括以下步骤:
步骤一:预先搭建用于非重叠模板匹配计算的CUDA环境,包括CPU端和GPU端;
步骤二:采集待检测样本数据,并将数据存储于CPU端;
步骤三:在GPU端分配存储空间,将检测数据与模板从CPU传至GPU端;
步骤四:将每条待检测数据序列分为N个长度为M的子块,控制GPU端并行计算长度为m的模板在第i个子块序列中发生的次数Wi;
步骤五:将所述Wi值传回CPU端进行P-value计算,所述P-value为在假设序列随机成立的情况下,错误被接受的概率。
2.根据权利要求1所述的一种基于CUDA的快速非重叠模板匹配计算方法,其特征在于:所述步骤四中控制GPU端并行计算所述待检测样本数据中匹配模板发生次数的具体包括:
定义运行在所述GPU端的Kernel核函数,以对所述待检测样本的多个子块中模板的发生次数进行并行计算:
将所述待检测样本序列从CPU端传输至GPU的全局内存,根据所述模板数量确定并行计算时的所需线程块以及线程的数量,依据预先设定的线程块的参数和所述线程数量计算得到所述kernel核函数在并行计算时所对应的网格参数,在所述CPU端调用API函数以控制所述Kernel核函数在所述GPU端上运行,以得到所述的发生次数,并将计算得到的所述发生次数从GPU端传输至CPU端。
3.根据权利要求2所述的一种基于CUDA的快速非重叠模板匹配计算方法,其特征在于:所述步骤四中模板在子块序列中发生次数的计算步骤为:
步骤4.1:将每条序列分为N个长度为M的子块;
步骤4.2:使用二进制格式读取随机数数据后,用移位算法将m位随机数倒序写入整型数中,即将随机数打包;
步骤4.3:使用移位算法将m位模板序列倒序写入整型数中,即将模板序列打包;
步骤4.4:用一个m位模板序列打包后的模板串与连续的m位随机数打包后的序列串进行匹配;
如果模板串=序列串,那么表示模板匹配成功一次,表示第i个子块中模板B发生的次数Wi加一,并执行步骤4.5;
如果模板串≠序列串,则执行步骤4.6;
步骤4.5:将随后的m位随机数继续打包生成一个新的序列串数据,重复步骤4.4;
步骤4.6:读取一个新的随机数,再将这个新的随机数写入序列串中的第8位,打包后生成一个新的序列串数据,然后重复步骤4.4。
4.根据权利要求3所述的一种基于CUDA的快速非重叠模板匹配计算方法,其特征在于:所述步骤四中控制GPU端进行数据并行计算处理具体为:将数据分块产生的子块序列均同时和模板序列进行匹配,实现子块序列之间的并行计算;每条线程只负责一个模板的计算,实现模板之间的并行计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于太原理工大学,未经太原理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010658627.1/1.html,转载请声明来源钻瓜专利网。