[发明专利]一种基于ARM平台的深度学习数字手写体识别方法在审
申请号: | 201810430232.9 | 申请日: | 2018-05-08 |
公开(公告)号: | CN108805222A | 公开(公告)日: | 2018-11-13 |
发明(设计)人: | 杨敏;黄佳凯;荆晓远;程雷 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06K9/68 | 分类号: | G06K9/68 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 牛莉莉 |
地址: | 210023 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 学习 手写数字识别 学习神经网络 摄像头拍摄 数字手写体 照片预处理 模型移植 手写数字 输出结果 图像识别 训练模型 实时性 训练集 准确率 构建 建模 开发 | ||
1.一种基于ARM平台的深度学习数字手写体识别方法,其特征在于:包括以下步骤:
步骤1,构建softmax深度学习神经网络模型;
步骤2,利用MNIST训练集训练模型,将MNIST训练集导入步骤1中构建完成的模型中对模型进行训练,并且检测模型的训练效果;
步骤3,将深度学习模型移植到ARM平台,在ARM平台上搭建TensorFlow,之后在PC端上利用FlashFXP通过SFTP over SSH连接类型,将训练好的深度学习模型导入ARM平台中;
步骤4,利用采集设备采集手写数字照片进行预处理;通过ARM嵌入式平台上的摄像头模块拍摄需要被识别的手写数字图片,在白纸上写下一个在0~9之间的阿拉伯数字,然后利用ARM嵌入式平台上的摄像头模块拍摄白纸上的写下的数字,最终将拍摄的照片进行预处理;
步骤5,识别并输出结果。
2.根据权利要求1所述的基于ARM平台的深度学习数字手写体识别方法,其特征在于:所述步骤1中构建softmax深度学习神经网络模型的方法为:
步骤1.1,初始化权重,权重使用truncated_normal进行初始化,stddev标准差定义为0.1,为了避免0梯度为题,偏置初始化时取常量0.1;
truncated_normal:截断正态分布随机数,均值mean,标准差stddev,只保留[mean-2×stddev,mean+2×stddev]范围内的随机数;
步骤1.2,卷积和池化,为了增加灵活性,利用TensorFlow进行卷积和池化的处理,卷积使用1步长,0边距的模板,保证输出和输入大小相同;
第一层卷积:卷积核取5×5,32个卷积,输出为28×28×32;使用RELU激活函数;池化卷积核取2×2,输出为:14×14×32;
第二层卷积:卷积核取5×5,64个卷积,输出为14×14×64;使用RELU激活函数;池化卷积核取2×2,输出为7×7×64;
步骤1.3,建立密集连接层,通过卷积池化处理后,将图片尺寸减小到7×7,并加入一个有1024个神经元的用于处理整个图片的全连接层,将池化层输出的张量重塑成向量,并加入前述步骤中的权重矩阵及偏置进行处理,然后对其使用ReLU激活函数;
步骤1.4,Dropout,为了减少过拟合,在输出层之前加入dropout;
步骤1.5,输出层,最后添加一个softmax回归算法用来分类识别,其计算公式为:
假设softmax回归模型的样本来自k个类,共m个,则由这些样本组成的训练集{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))},
其中x(i)∈R(n+1),标签:y(i)∈{1,2,…k};
对于给定的输入x,假设函数针对每一个类别j估算出概率值p(y=j/x),用来估计x的每一种分类结果出现的概率;因此,假设函数将输出一个k维向量:向量元素和为1来表示这个k个估计的概率,
假设函数hθ(x)形式如下:
其中θ1,θ2,…,θk∈Rn+1是模型参数,p(y(i)=j|x(i);θj)表示样本x(i)属于第j类的概率;
该模型的代价函数
其中1{·}是显性函数,其取值规则为1{值为真表达式}=1,1{值为假的表达式}=0;
为解决前述模型中的参数冗余问题,给代价函数加入权重衰减,代价函数为:
通过所述权重衰减项,将代价函数变化为严格的凸函数,保证能够得到唯一解;
对J(θ)求偏导数:
通过梯度下降法的计算参数θ1,θ2,…,θk,得到训练好的softmax回归模型,从而通过函数计算出所需识别图像所属类别的概率,选择概率最大的类别输出结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810430232.9/1.html,转载请声明来源钻瓜专利网。