[发明专利]一种基于深度信念网络的源代码作者识别方法有效
申请号: | 201711380042.2 | 申请日: | 2017-12-20 |
公开(公告)号: | CN108108184B | 公开(公告)日: | 2020-12-04 |
发明(设计)人: | 张春霞;王森;武嘉玉;王树良;牛振东;张佳籴;黄达友;张沛炎 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06F8/74 | 分类号: | G06F8/74;G06N3/08;G06N20/00 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 鲍文娟 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 信念 网络 源代码 作者 识别 方法 | ||
本发明公开了一种基于深度信念网络的源代码作者识别方法,属于Web挖掘和信息抽取领域。本发明包括如下步骤:构建源代码数据集,对源代码数据进行预处理;基于连续n‑gram代码段模型提取源代码特征;基于训练源代码文件样本训练深度信念网络模型;利用经过训练的深度信念网络模型进行源代码文件的作者识别,输出源代码文件的作者识别结果。本发明将源代码作者识别问题转换为分类问题,通过深度信念网络识别源代码的作者身份,提高了作者身份识别的性能和效率,在信息检索、信息安全、计算机取证等领域具有广阔的应用前景。
技术领域
本发明涉及一种基于深度信念网络的源代码作者识别方法,属于Web挖掘和信息抽取领域。
背景技术
现有的源代码作者身份识别方法主要包括排序方法、统计分析方法、浅层结构机器学习分类方法,以及相似度度量方法。
基于排序方法的源代码作者识别包括基于信息检索的排序方法、基于作者画像的排序方法。基于信息检索的排序方法的核心思想是指利用信息检索技巧来进行源代码作者身份识别。首先,将源代码转换为运算符和关键词等字符串序列;其次,将字符串序列转换为n-gram序列;然后,对所有源代码构建索引;最后,检索作者未知的源代码,将排在检索结果前面的若干个源代码的作者作为该源代码的作者。基于作者画像的排序方法中,首先构建作者画像,由作者编写的源代码集合中若干个高频n-gram序列构成;然后,计算作者未知的源代码与每个作者画像中共同出现的n-gram序列的数目,将数目最大的作者画像的作者作为源代码的作者。
基于统计分析方法主要采用多组判别分析(Multiple Discriminant Analysis)和典型判别分析(Canonical Discriminant Analysis)来识别源代码作者身份。基于浅层结构机器学习分类方法是指主要采用支持向量机或贝叶斯等分类器来识别源代码作者身份。基于相似度度量方法是指通过计算作者未知的源代码与作者已知的源代码的相似度进行源代码作者身份识别。
目前采用深度学习进行源代码作者身份识别的研究工作较少。深度信念网络是深度学习领域的一种神经网络模型。由一个输入层、若干个隐藏层和一个输出层构成。隐藏层包括若干个受限玻尔兹曼机RBM(Restricted Boltzmann Machines)和一个反向转播层BP(Back Propagation)。每个受限玻尔兹曼机由一个可见层和一个隐藏层构成。可见层和隐藏层之间的神经元是全连接的,即可见层的任一神经元都和隐藏层的任一神经元相连。位于可见层或隐藏层内部的神经元是独立的,任意两个神经元之间都是互相不连接的。深度信念网络已经广泛应用于图像识别、语音识别和文本处理等领域。
发明内容
现有的源代码作者身份识别包括排序方法、统计分析方法、浅层结构机器学习分类方法,以及相似度度量方法。目前采用深度学习技术进行源代码作者身份识别的研究工作较少。
本发明的目的在于提出一种基于深度信念网络的源代码作者识别方法,该方法根据给定的候选作者及其编写的源代码文件集合,判别作者未知的源代码文件的作者身份。本方法的特点是:其一,将源代码作者身份识别问题转化为分类问题,源代码作者识别方法具有较强的鲁棒性;其二,通过一种深度学习模型即深度信念网络模型来识别源代码的作者身份,提高了作者身份识别的性能。
一种基于深度信念网络的源代码作者识别方法,包括如下步骤:
步骤1:由源代码数据获取模块构建源代码数据集,对源代码数据进行预处理;
从源代码网站采集源代码,并将其保存到计算机;对采集的源代码进行预处理,获取源代码作者及其编写的源代码文件集合;
步骤2:对于源代码文件,源代码特征提取模块采用基于连续n-gram代码段模型的方法提取源代码特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711380042.2/2.html,转载请声明来源钻瓜专利网。