[发明专利]一种基于知识发现的技术竞争及专利预警分析方法在审

专利信息
申请号: 201710064192.6 申请日: 2017-02-04
公开(公告)号: CN106897392A 公开(公告)日: 2017-06-27
发明(设计)人: 柳先辉;陈宇飞;王新梅;洪晶;赵卫东 申请(专利权)人: 同济大学
主分类号: G06F17/30 分类号: G06F17/30;G06Q50/18
代理公司: 上海科律专利代理事务所(特殊普通合伙)31290 代理人: 叶凤
地址: 200092 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 知识 发现 技术 竞争 专利 预警 分析 方法
【权利要求书】:

1.一种基于知识发现的技术竞争及专利预警分析方法,其特征在于,具体步骤包括:

步骤1数据提取阶段,建立专题数据库,对知识产权数据库和产业领域知识进行抽取分析,得到专利专题数据库。

步骤2数据预处理阶段,其步骤包括:

采用向量空间模型(VSM),基本思想是将特征词从专利文件中抽取出来,不考虑专利文件结构和词序语义。首先提取专利的标题和摘要,再进行中文分词、词性标注、合并同义词、去停用词。专利文件由特征词组成的一个特征向量表示,记作Vi=(di1,di2,...,dim),其中di1表示第一个特征词在专利文件i中的权重。对于n个专利文件,形成一个m×n专利特征矩阵D,D=[dij]m×n。由于专利文本和特征词数量大,而在某个确定的专利文件中出现的特征词有限,所以这里dij的计算采用TF-IDF方法,其中fij表示第i个特征词出现在第j个专利文件中的频度,pi表示含有第i个特征词的专利文件数量。

<mrow><msub><mi>d</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><mo>=</mo><mfrac><mrow><msub><mi>f</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><mo>&times;</mo><msub><mi>log</mi><mn>2</mn></msub><mrow><mo>(</mo><mi>n</mi><mo>/</mo><msub><mi>p</mi><mi>i</mi></msub><mo>+</mo><mn>0.01</mn><mo>)</mo></mrow></mrow><msqrt><mrow><munderover><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><msup><mrow><mo>(</mo><msub><mi>f</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><mo>&times;</mo><msub><mi>log</mi><mn>2</mn></msub><mo>(</mo><mrow><mi>n</mi><mo>/</mo><msub><mi>p</mi><mi>i</mi></msub><mo>+</mo><mn>0.01</mn></mrow><mo>)</mo><mo>)</mo></mrow><mn>2</mn></msup></mrow></msqrt></mfrac></mrow>

步骤3数据挖掘阶段:对形成的专利特征矩阵,应用SOM神经网络方法和GMM混合高斯模型相结合的方法进行聚类,得到聚类结果,聚类得到的专利集合对应着不同主题的专利文件。

步骤3.1对专利向量文本进行SOM自组织学习训练,得到输出结点向量集Y。SOM神经网络,将高维向量映射为低维向量时保持向量内部拓扑结构不变的特性,将高维的专利文本数据映射到二维平面空间。

SOM神经网络模型由输入层和输出层组成,输出层即竞争层。输入层神经元个数对应专利文件的维度即特征词数量m,输出层神经元个数这里定义为a,这里将竞争层神经元排列成二维阵列形式。输入与输出层为全连接,输出层之间为侧向交互连接以相互作用。SOM模型实现步骤为五步:初始化,竞争层神经元相互竞争,竞争层神经元相互合作,神经元权值自适应,迭代直至收敛。

(1)初始化:输入与输出层为全连接,需要对每个突触赋初始权值,通常选择[0,1]内的小随机数,以实现无监督映射,得到权值矩阵W=[wij]m×a

(2)竞争层神经元相互竞争:对于输入向量Vi,竞争层神经元根据判别函数产生获胜神经元。这里设置判别函数为余弦相似度度量函数,对于竞争层神经元b,相似度Sb为:

<mrow><msub><mi>s</mi><mi>b</mi></msub><mo>=</mo><mfrac><mrow><munderover><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><msub><mi>V</mi><mi>j</mi></msub><mo>&times;</mo><msub><mi>w</mi><mrow><mi>b</mi><mi>j</mi></mrow></msub></mrow><msqrt><mrow><munderover><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><msup><mrow><mo>(</mo><msub><mi>V</mi><mi>j</mi></msub><mo>)</mo></mrow><mn>2</mn></msup><mo>&times;</mo><munderover><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></munderover><msup><mrow><mo>(</mo><msub><mi>w</mi><mrow><mi>b</mi><mi>j</mi></mrow></msub><mo>)</mo></mrow><mn>2</mn></msup></mrow></msqrt></mfrac></mrow>

计算得S=[s1,...,sa],选取S中最小值,其对应的即为获胜神经元。

(3)竞争层神经元相互合作:获胜神经元邻近的神经元容易被激活,所以需要定义激活的领域范围,μ表示被激活的神经元,i表示获胜神经元,σ表示邻域宽度(随时间增加而减小),τ1是时间常数,t是离散时间变量(0,1,2,...)。邻域公式定义如下:

<mrow><msub><mi>&delta;</mi><mrow><mi>&mu;</mi><mo>,</mo><mi>i</mi></mrow></msub><mo>=</mo><mi>exp</mi><mrow><mo>(</mo><mo>-</mo><mfrac><msub><mi>s</mi><mrow><mi>&mu;</mi><mo>,</mo><mi>i</mi></mrow></msub><mrow><mn>2</mn><msup><mi>&sigma;</mi><mn>2</mn></msup><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow></mrow></mfrac><mo>)</mo></mrow><mo>,</mo><mi>&sigma;</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><msub><mi>&sigma;</mi><mn>0</mn></msub><mi>exp</mi><mrow><mo>(</mo><mo>-</mo><mfrac><mi>t</mi><mrow><mi>&tau;</mi><mn>1</mn></mrow></mfrac><mo>)</mo></mrow></mrow>

(4)神经元权值自适应:η(t)表示学习率参数(随时间t增加而减小),η0为初始值,τ2是时间常数。权值向量W的更新公式定义如下:

wj(t+1)=wj(t)+η(t)δμ,i(x(t)-wj(t)),

(5)迭代直至收敛:不断选取新的专利特征向量重复以上步骤,迭代训练直至达到指定迭代次数或者输出的二维映射趋于稳定。最后得到输出层为保持高维内部拓扑结构的二维平面上的n个点X(xi,yi),具有低维可视化性能。

步骤3.2用GMM混合高斯模型对X进行直接聚类,将其划分为K类。GMM模型实现步骤为四步:初始化GMM模型,E步求数据点由各个高斯成分生成的概率,M步更新GMM模型参数,迭代直至收敛。

(1)初始化GMM模型:有n个样本点,划分为K类。则GMM模型由K个高斯分布组成,每一个高斯分布称为一个高斯成分,由他们线性组合成GMM混合模型,这里μk为均值向量初始化零,∑k为协方差向量初始化为一个任意大的正数乘以单位矩阵,πk初始化为1/n,概率密度函数和最大似然函数公式如下:

<mrow><mi>p</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><mi>p</mi><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mi>p</mi><mrow><mo>(</mo><mi>x</mi><mo>|</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><msub><mi>&pi;</mi><mi>k</mi></msub><mi>N</mi><mrow><mo>(</mo><mi>x</mi><mo>|</mo><msub><mi>&mu;</mi><mi>k</mi></msub><mo>,</mo><msub><mi>&Sigma;</mi><mi>k</mi></msub><mo>)</mo></mrow></mrow>

<mrow><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi></munderover><mi>log</mi><mo>{</mo><munderover><mo>&Sigma;</mo><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><msub><mi>&pi;</mi><mi>k</mi></msub><mi>N</mi><mrow><mo>(</mo><mi>x</mi><mo>|</mo><msub><mi>&mu;</mi><mi>k</mi></msub><mo>,</mo><msub><mi>&Sigma;</mi><mi>k</mi></msub><mo>)</mo></mrow><mo>}</mo></mrow>

(2)E步已知μk,∑k,πk,求样本点由各个高斯成分生成的概率:

<mrow><mi>&gamma;</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mrow><msub><mi>&pi;</mi><mi>k</mi></msub><mi>N</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>|</mo><msub><mi>&mu;</mi><mi>k</mi></msub><mo>,</mo><msub><mi>&Sigma;</mi><mi>k</mi></msub><mo>)</mo></mrow></mrow><mrow><munderover><mo>&Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><msub><mi>&pi;</mi><mi>j</mi></msub><mi>N</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>|</mo><msub><mi>&mu;</mi><mi>j</mi></msub><mo>,</mo><msub><mi>&Sigma;</mi><mi>j</mi></msub><mo>)</mo></mrow></mrow></mfrac></mrow>

(3)M步已知γ(i,k),更新GMM模型参数:

<mrow><msub><mi>&mu;</mi><mi>k</mi></msub><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>k</mi></msub></mfrac><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi></munderover><mi>&gamma;</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>k</mi><mo>)</mo></mrow><msub><mi>x</mi><mi>i</mi></msub><mo>,</mo><msub><mi>&Sigma;</mi><mi>k</mi></msub><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>k</mi></msub></mfrac><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi></munderover><mi>&gamma;</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>k</mi><mo>)</mo></mrow><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>-</mo><msub><mi>&mu;</mi><mi>k</mi></msub><mo>)</mo></mrow><msup><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>-</mo><msub><mi>&mu;</mi><mi>k</mi></msub><mo>)</mo></mrow><mi>T</mi></msup></mrow>

<mrow><msub><mi>N</mi><mi>k</mi></msub><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi></munderover><mi>&gamma;</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>k</mi><mo>)</mo></mrow><mo>,</mo><msub><mi>&pi;</mi><mi>k</mi></msub><mo>=</mo><mfrac><msub><mi>N</mi><mi>k</mi></msub><mi>n</mi></mfrac></mrow>

(4)迭代(2)(3)步骤,至最大似然函数收敛或者达到最大收敛次数。GMM最终得到每个样本点被分到所有类别的概率,选取概率最大的作为其分类k。

步骤4结果解释分析阶段,对聚类之后的专利进行分析,每一类专利代表着不同的主题,专利主题内部相似度高。具体包括:专利预警、专利主题战略坐标分析、专利主题生命周期分析。专利预警:用户设定参数,具体有检索式、待预警的文件、接收预警的联系方式、预警阈值。待预警的文件:是企业的研发或者产品技术特征说明书;被检专利即通过检索式在对知识产权数据库和产业领域知识库中检索到的已公开专利和文献。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201710064192.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top