[发明专利]一种顾客装扮属性分析方法、系统和计算机设备在审
申请号: | 201811257180.6 | 申请日: | 2018-10-26 |
公开(公告)号: | CN109635632A | 公开(公告)日: | 2019-04-16 |
发明(设计)人: | 张帅;贾宝芝;徐邵凯 | 申请(专利权)人: | 厦门瑞为信息技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06Q30/02 |
代理公司: | 厦门市首创君合专利事务所有限公司 35204 | 代理人: | 连耀忠;李艾华 |
地址: | 361000 福建省厦*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 顾客 人形 属性分析 卷积神经网络 计算机设备 框位置 置信度 图片 策略确定 服装搭配 人形检测 视频数据 属性选择 统计分析 图片截取 销售量 输出 检测 风格 销售 制定 | ||
本发明公开了一种顾客装扮属性分析方法、系统和计算机设备,方法包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。本发明能快速准确的检测商店内顾客装扮属性,进而统计分析店内顾客的装扮风格、服装搭配等信息,有助于店家制定销售策略,促进销售量。
技术领域
本发明涉及大数据处理技术领域,具体涉及一种顾客装扮属性分析方法、系统和计算机设备。
背景技术
目前,尽管线上商店对线下商店存在一定的冲击,但是线下商店如各种大型商场、商品专卖店、超市等在人们的日常生活中仍然起着重要的作用。目前各种线下商店一个比较突出的问题是对顾客不感知,一方面没有专业人士或人力成本进行顾客属性分析,另一方面绝线下商店安装的摄像头主要是用来进行视频监控,防止偷盗发生并在必要时提供有力的视频证据,但并没有通过店内录像数据进行相应的数据挖掘,以及从海量的到店顾客身上挖掘有价值的信息。
发明内容
本发明的主要目的在于提出一种顾客装扮属性分析方法、系统和计算机设备,能快速准确的检测商店内顾客装扮属性,让店家知道店内顾客装扮属性,进而统计分析店内顾客的装扮风格、服装搭配等信息,有助于店家制定销售策略,促进销售量。
本发明采用如下技术方案:
一方面,本发明一种顾客装扮属性分析方法,包括:
获取店内图片或/和视频数据,从中提取单张图片;
通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;
通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;
根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。
优选的,所述通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片,具体包括:
步骤a1,通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置(x1,y1,x2,y2),其中,x1和y1为人形框的左上角的坐标;x2和y2为人形框右下角的坐标;
步骤a2,使用OpenCV库函数读取图片,并读取该图片中顾客人形框的位置,根据人形框矩形的左上角坐标(x1,y1)和右下角坐标(x2,y2)坐标来截取对应矩形中的图片,获得顾客整体人形图片。
优选的,所述第一深度卷积神经网络模型采用ssd模型,使用预设大小图片作为输入,采用VGG16做基础模型,分别将VGG16的全连接层fc6转换成3*3卷积层conv6,将全连接层fc7转换成1*1卷积层conv7,同时将池化层pool5由原来的stride=2的2*2变成stride=1的3*3结构,然后移除dropout层和fc8层,并新增若干卷积层。
优选的,所述第一深度学习模型的损失函数定义为置信度误差与位置误差的加权和,如下:
其中,N是预设人形框的正样本数量;Lconf(x,c)表示置信度误差的损失函数,采用softmax loss;α表示权重系数;Lloc(x,l,g)表示位置误差的损失函数,采用SmoothL1loss。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门瑞为信息技术有限公司,未经厦门瑞为信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811257180.6/2.html,转载请声明来源钻瓜专利网。