[发明专利]一种智能热点打散的方法、装置、存储介质及计算机设备在审
申请号: | 202210316256.8 | 申请日: | 2019-02-15 |
公开(公告)号: | CN114884885A | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 王康 | 申请(专利权)人: | 贵州白山云科技股份有限公司 |
主分类号: | H04L47/125 | 分类号: | H04L47/125;G06F16/955 |
代理公司: | 北京名华博信知识产权代理有限公司 11453 | 代理人: | 李冬梅 |
地址: | 550003 贵州省贵阳市*** | 国省代码: | 贵州;52 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 智能 热点 打散 方法 装置 存储 介质 计算机 设备 | ||
本发明公开了一种智能热点打散的方法、装置、存储介质及计算机设备。所公开的方法包括:基于人工智能学习模型学习URL的请求量曲线并预测URL的请求量;将URL的预测请求量大于或等于该URL所对应的第一预定请求量阈值的URL确定为第一URL,对URL执行第一热点打散操作;将URL的请求量无法预测且实际请求量大于或等于该URL所对应的第二预定请求量阈值的URL确定为第二URL,对URL执行第二热点打散操作。所公开的技术方案能够自动预测非突发的热点URL请求、从而提前进行第一种打散操作,能够对不能预测的突发热点URL请求进行第二种打散操作,加快了热点业务的处理。
技术领域
本发明涉及计算机网络负载均衡领域,尤其涉及一种智能热点打散的方法、装置、存储介质及计算机设备。
背景技术
为了减小服务器端的处理时延,改善用户体验,通常都需要对URL(特别是热点URL)进行打散/均衡操作。
现有技术通常采用将集中的URL随机或均匀地分散到后端机器(例如,源站节点服务器集群、边缘节点服务器集群)的方式,来实现针对热点URL的负载均衡。
然而,现有技术方案通常只是在热点URL出现之后,才执行打散操作,从而将针对热点URL的请求分散地分配到多台机器,因此存在以下缺点:
1、没有在前期针对热点URL可能存在的趋势做出判断,做出预先处理。只是在发现热点之后直接打散,没有缓存的机器会直接回上层节点或者源造成大量流量浪费。
2、即使采用组内共享缓存方案,将所有回源流量重新导回统一端口,在热点文件较大(例如,文件大小超过1G)时,在各个机器取完文件之前,热点堆积现象将无法解决,该统一端口的压力并没有减少。
为了解决上述问题,需要提出新的技术方案。
发明内容
根据本发明的智能热点打散的方法,包括:
基于人工智能学习模型学习URL的请求量曲线并预测URL的请求量;
将URL的预测请求量大于或等于该URL所对应的第一预定请求量阈值的URL确定为第一URL,对URL执行第一热点打散操作;
将URL的请求量无法预测且实际请求量大于或等于该URL所对应的第二预定请求量阈值的URL确定为第二URL,对URL执行第二热点打散操作。
根据本发明的智能热点打散的方法,其对URL执行第一热点打散操作的步骤包括:
将第一URL的请求随机或均匀地分配到多个缓存服务器和/或源站服务器的进程。
根据本发明的智能热点打散的方法,其对URL执行第二热点打散操作的步骤包括:
查找第二URL的落点进程;
将第一URL的新请求随机或均匀地分配到多个缓存服务器和/或源站服务器的进程中的、除了落点进程之外的进程;和/或
将第一URL的旧请求随机或均匀地重新分配到多个缓存服务器和/或源站服务器的进程中的、除了落点进程之外的进程。
根据本发明的智能热点打散的方法,其对URL执行第二热点打散操作的步骤还包括:
确定第二URL的请求文件的大小大于指定文件大小;和/或
在落点进程执行完针对第二URL的请求的、获取并发送请求文件或发送请求文件的响应之后,将第一URL的新请求随机或均匀地分配到多个缓存服务器和/或源站服务器的进程,和/或,将第一URL的旧请求随机或均匀地重新分配到多个缓存服务器和/或源站服务器的进程,和/或
基于人工智能学习模型学习URL的请求量曲线并预测URL的请求量的步骤包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贵州白山云科技股份有限公司,未经贵州白山云科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210316256.8/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种终端安全数据指标可视化系统
- 下一篇:一种质子加速器治疗系统