[发明专利]基于双边随机投影的图像感知哈希方法有效
申请号: | 201310391189.7 | 申请日: | 2013-08-31 |
公开(公告)号: | CN103412960A | 公开(公告)日: | 2013-11-27 |
发明(设计)人: | 王秀美;高新波;季秀云;田春娜;李洁;韩冰;邓成;王颖;王斌 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06F17/30 | 分类号: | G06F17/30 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 田文英;王品华 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 双边 随机 投影 图像 感知 方法 | ||
1.一种基于双边随机投影的图像感知哈希方法,包括如下步骤:
(1)预处理:
1a)调用图像数据库中的原始图像数据;
1b)采用GIST方法,对原始图像数据提取图像底层特征,得到图像特征数据;
1c)对图像特征数据取均值,用图像特征数据中的每个图像特征数据分别减去该均值,得到相应的图像特征数据的中心化向量;
1d)对每个图像特征数据中心化向量的各个分量的平方相加后,再开根号得到该向量的模;
1e)将每个图像特征数据中心化向量除以该向量的模,得到每个图像特征数据的归一化向量;
1f)从图像特征数据的归一化向量中随机选取部分向量组成一个矩阵,将该矩阵作为图像测试数据矩阵,其余的图像特征数据的归一化向量组成的矩阵作为图像训练数据矩阵,完成预处理;
(2)获取双边随机投影矩阵:
2a)由计算机随机生成一个服从标准正态分布的矩阵,作为初始右投影矩阵;
2b)将初始右投影矩阵中每个列向量作为投影向量,将每个图像训练数据矩阵的行向量分别向该投影向量投影,得到左投影矩阵;
2c)将左投影矩阵的每个列向量作为投影向量,将每个图像训练数据矩阵的列向量分别向该投影向量投影,得到右投影矩阵;
(3)低秩近似:
3a)采用格拉姆-施密特正交化方法将右投影矩阵的列向量正交化,将这些向量排列在一个矩阵中,得到正交化右投影矩阵;
3b)对正交化右投影矩阵做转置,得到转置矩阵;
3c)将正交化右投影矩阵、转置矩阵、步骤1f)图像训练数据矩阵三者相乘,得到图像训练数据的低秩矩阵;
(4)更新图像训练数据的低秩矩阵:
用图像训练数据的低秩矩阵替换图像训练数据矩阵;
(5)判断更新低秩矩阵的迭代次数是否最大:
判断图像训练数据的低秩矩阵更新的迭代次数是否达到最大值10,当迭代次数小于最大值,则执行步骤(2),否则,终止迭代;
(6)投影向量分组:
将最优右投影矩阵中列向量任意均分为两组,得到两组投影向量;
(7)投影向量正交化:
7a)对每组投影向量分别用格拉姆-施密特正交化方法进行正交,得到两组正交化的投影向量;
7b)将两组正交化的投影向量合并,得到全部最优投影向量;
(8)获取哈希编码:
8a)将图像训练数据矩阵中的每个行向量作为一个图像训练数据,采用哈希方法对每个图像训练数据进行编码,得到图像训练数据的哈希编码;
8b)将图像测试数据矩阵中的每个行向量作为一个图像测试数据,采用哈希方法对每个图像测试数据进行编码,得到图像测试数据的哈希编码;
(9)获取汉明距离:
取一个图像测试数据的哈希编码,统计该图像测试数据的哈希编码与每一个图像训练数据的哈希编码在相同位置上有不同编码值的位数,得到该图像测试数据与每一个图像训练数据的汉明距离;
(10)输出测试结果:
10a)将汉明距离按从小到大的顺序进行排序,得到有序图像训练数据;
10b)调取图像数据库中与有序图像训练数据对应的原始图像数据,将该原始图像数据依次输出。
2.根据权利要求1所述的基于双边随机投影的图像感知哈希方法,其特征在于,步骤1b)所述的GIST方法的步骤如下:
第一步,对每个原始图像数据的红、绿、蓝三个颜色通道的像素值取均值,得到该原始图像数据的灰度图像;
第二步,利用Gabor滤波器对原始图像数据的每一幅灰度图像进行4个尺度、8个方向的滤波,得到每一幅灰度图像的32个特征图;
第三步,将每个特征图分成大小为4×4的子网格,分别对每个子网格中的所有像素取均值,将该均值排列在一个向量中,得到图像特征数据。
3.根据权利要求1所述的基于双边随机投影的图像感知哈希方法,其特征在于,步骤2c)所述的右随机投影矩阵是一个d×r的随机矩阵,其中d表示图像特征数据的特征个数,r表示图像训练数据矩阵秩的估计值,其大小为16、24、32、40、48、56、64、72中的任意一个值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310391189.7/1.html,转载请声明来源钻瓜专利网。