[发明专利]一种基于封面的书籍类型深度学习分类方法在审
申请号: | 202110103351.5 | 申请日: | 2021-01-26 |
公开(公告)号: | CN112749682A | 公开(公告)日: | 2021-05-04 |
发明(设计)人: | 潘晓光;潘晓辉;王小华;张娜;董虎弟 | 申请(专利权)人: | 山西三友和智慧信息技术股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/20;G06K9/62;G06F40/211;G06N3/04;G06N3/08 |
代理公司: | 太原荣信德知识产权代理事务所(特殊普通合伙) 14119 | 代理人: | 杨凯;连慧敏 |
地址: | 030006 山西省*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 封面 书籍 类型 深度 学习 分类 方法 | ||
本发明涉及图书管理技术领域,更具体而言,涉及一种基于封面的书籍类型深度学习分类方法。包括以下步骤:S1、收集图书封面图像并制作训练数据集DTP;S2、将训练数据集DTP输入深度学习模型并进行训练;S3、使用S2所得到的深度学习模型对书籍进行分类。S2中,深度学习模型包括两个深度学习网络、一个全连接层和一个softmax分类器,基于视觉的深度学习网络使用残差神经网络模型,基于文本的深度学习网络使用通用句子编码器模型。本发明具有更高的分类准确率和更高的适用性和稳定性,能够对书籍进行快速,有效的分类,精度高,速度快。本发明主要应用与书籍类型分类方面。
技术领域
本发明涉及图书管理技术领域,更具体而言,涉及一种基于封面的书籍类型深度学习分类方法。
背景技术
书的封面通常是读者的第一印象,它们经常传达关于书的内容的重要信息。随着图书的完全数字化进程的不断推进,基于封面的图书类型分类对于许多现代检索系统来说是一项极其重要的内容。解决此问题的主要难点如下:第一,书的体裁种类繁多,有很多没有具体界定;第二,书的封面,如颜色,风格,文本信息等,即使是同一类型的书之间,也具有很大的差异;第三,由于国家、文化、目标读者群体等外部因素的影响,书籍的封面设计也会有所不同。随着图书行业的竞争力日益增强,为了能吸引读者,图书封面设计师将封面设计推向了一个新的高度。
广东技术师范大学蔡君等人在其申请的专利文献“一种基于深度学习的书脊文本识别方法、设备及存储介质”(申请号202010182949.3申请日2020.09.18申请公布号:CN111680684A)中公开了一种基于深度学习的书脊文本识别方法、设备及存储介质。该发明内容包括:制作合成书脊、单字多字体和真实书脊数据集;基于CTPN模型对单本书脊进行文本检测;针对文本模糊特点搭建基于ResNet10的书脊文本识别模型STRNet;针对字体多样特点制作SK-NNS分类器等。该发明的不足之处为:该发明仅是书籍的文字信息识别,并未直接进行书籍分类,识别文本后仍需人工进行书籍分类,故该发明在实际使用中具有很大的局限性。
发明内容
为克服上述现有技术中存在的不足,本发明提供了一种基于封面的书籍类型深度学习分类方法,该方法可能够靠、准确地对书籍进行分类。
为解决上述技术问题,本发明采取的技术方案为:
一种基于封面的书籍类型深度学习分类方法,包括以下步骤:
S1、收集图书封面图像并制作训练数据集DTP;
S2、将训练数据集DTP输入深度学习模型并进行训练;
S3、使用S2所得到的深度学习模型对书籍进行分类。
所述步骤S1中,操作步骤为:
S1a、收集大量图书封面图像,根据体裁进行将这些图像分为30个类别并进行标注;
S1b、将所有的图像调整到224×224的大小,得到图像数据DP;
S1c、使用视觉应用编程接口对数据集进行文本提取,得到文本数据DT;
S1d、将图像数据DP、文本数据DT和标注类别数据共同组成训练数据集DTP。
所述步骤S2中,操作步骤为:
S2a、将训练数据集DTP中的图像数据DP输入基于视觉的深度学习网络;
S2b、将训练数据集DTP中的文本数据DT输入基于文本的深度学习网络;
S2c、将两个深度学习的输出进行直接拼接合并,得到全连接层;
S2d、将全连接层的数据直接输入softmax层进行分类;
S2e、使用梯度下降方法进行反向传播,更新网络参数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西三友和智慧信息技术股份有限公司,未经山西三友和智慧信息技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110103351.5/2.html,转载请声明来源钻瓜专利网。