[发明专利]一种基于植物识别的社交平台匹配方法和系统有效
申请号: | 201910286271.0 | 申请日: | 2019-04-10 |
公开(公告)号: | CN110008912B | 公开(公告)日: | 2023-04-18 |
发明(设计)人: | 李晨;左东昊;江昕阳;贾小琦;许宁 | 申请(专利权)人: | 东北大学 |
主分类号: | G06V20/60 | 分类号: | G06V20/60;G06V10/46;G06V10/26;G06V10/82;G06N3/08;G06Q50/00 |
代理公司: | 北京易捷胜知识产权代理有限公司 11613 | 代理人: | 韩国胜 |
地址: | 110169 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 植物 识别 社交 平台 匹配 方法 系统 | ||
1.一种基于植物识别的社交平台匹配方法,其特征在于,包括:
S1、获取社交平台中已注册用户拍摄的植物叶片图像以及该图像的拍摄信息;
S2、针对所述植物叶片图像进行处理,获取叶片分割图像和叶脉图像;
S3、对叶片分割图像进行特征提取,获取叶片分割图像的基础特征和波形特征;对叶脉图像进行特征提取,获取所述叶脉图像的骨架特征,并根据所述基础特征获取所述植物叶片图像的拍摄角度信息;
具体地,将所述基础特征的与感兴趣区域具有相同标准二阶中心矩的椭圆的长轴与x轴的交角作为所述拍摄角度信息;
S4、将所述基础特征、波形特征和骨架特征输入至预先训练的分类神经网络,获取叶片种类信息;
S5、将待匹配用户和全部用户的所述叶片种类信息、用户注册信息、所述拍摄角度信息和拍摄信息进行标准化理后输入至预先训练的匹配神经网络,获取待匹配用户与全部用户的匹配度,并根据所述匹配度为待匹配用户推荐至少一个用户作为匹配结果;
所述拍摄信息包括植物叶片图像的拍摄时间和拍摄地点,所述用户注册信息包括用户的性格、性别和年龄;
获取叶片分割图像和叶脉图像包括:
S21、针对所述植物叶片图像分别利用超绿算法处理和HSV算法,获取超绿图像和HSV图像;
S22、针对所述超绿图像利用区域生长算法获取生长图像;
S23、针对所述超绿图像进行阈值分割获取阈值分割图,并对比所述生长图像的面积与所述阈值分割图中感兴趣区域的面积;
若所述生长图像的面积小于所述生长图像的像素点个数的一半或大于所述阈值分割图中感兴趣区域的面积二倍时;则调整阈值、区域生长步长和种子点,并返回步骤S22;
否则,将当前生长图像作为所述叶片分割图像;
S24、将所述叶片分割图像和所述HSV图像依次进行点乘、灰度化和旋转获取HSV灰度图像,并针对所述HSV灰度图像进行边缘提取作为所述叶脉图像。
2.如权利要求1所述的方法,其特征在于,还包括步骤S1之前还包括:
S0、利用预先获取的基础特征、波形特征和骨架特征样本数据作为预先构建的分类神经网络模型的输入,将预先标记的植物种类作为预先构建的分类神经网络模型的输出,获取预先训练的分类神经网络。
3.如权利要求1所述的方法,其特征在于,在步骤S3中获取波形特征包括:
S31、根据所述叶片分割图像中叶片边缘的点到叶片重心的距离获取原始波形;
S32、针对所述原始波形利用高斯滤波、曲线拟合或小波变换处理中的一种,获取形状波形;
S33、将所述原始波形减去所述形状波形,获取叶片边缘信息波;
S34、将所述形状波形和所述叶片边缘信息波分别进行64等分并将获得的128个数据作为所述波形特征。
4.如权利要求3所述的方法,其特征在于,在步骤还S3包括:
将所述叶脉图像的骨架分叉数、骨架像素点数和最小外接矩形面积平方根的比值作为所述骨架特征。
5.如权利要求4所述的方法,其特征在于,在步骤S5中,对预先训练的匹配神经网络的输入的标准化处理包括:
将所述用户的年龄差区间变化到0-1;
将所述用户的性别用0.1和1表示,相同为1,不同为0.1;
将同一类的植物标记为1,将同一属的植物标记为0.5,将同一科的植物标记为0.25,将同一目的植物标记为0.125,将同一纲的植物标记为0.0625,剩余种类植物均标记为0;
利用下述公式一至三分别获取时间差值T、拍摄地点的距离差值D和拍摄角度差值θ;
公式一:
公式二:
公式三:
其中,t为两用户图片拍摄时间差值,t单位为小时,若T0,则令T=0;d为两用户图片拍摄距离差值,d单位为千米,若D0,则令D=0;α为与感兴趣区域具有相同标准二阶中心矩的椭圆的长轴与x轴的交角,α单位为度,区间为α∈(-90,90]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910286271.0/1.html,转载请声明来源钻瓜专利网。