[发明专利]一种面向SLA的边云系统的资源自适应定制方法有效
申请号: | 202111025406.1 | 申请日: | 2021-09-02 |
公开(公告)号: | CN113783726B | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 王晓飞;鞠艳丽;任远铭;王鑫 | 申请(专利权)人: | 天津大学 |
主分类号: | H04L41/0816 | 分类号: | H04L41/0816;H04L41/142;H04L41/5019;H04L41/042 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 樊晓 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 sla 系统 资源 自适应 定制 方法 | ||
1.一种面向SLA的边云系统的资源自适应定制方法,包括:
将边云系统划分成边缘集群和云中心集群;
获取所述边缘集群的属性信息,其中,所述边缘集群的属性信息包括边缘节点、所述边缘节点之间的连接关系以及所述边缘节点属性信息;
获取所述云中心集群的属性信息,其中所述云中心集群的属性信息包括所述云中心集群的计算能力、内存大小以及与所述边缘节点之间的传输延迟;
根据所述边缘集群的属性信息和所述云中心集群的属性信息,利用深度强化学习技术对边云系统的资源进行定制,形成多个在逻辑上相互隔离的资源单元,并将具有相似属性的所述资源单元集合成资源通道,其中,所述资源通道具有相对应的服务水平协议(Service Level Agreement,SLA)保证;
其中,所述资源单元包括所述边缘节点之间形成的横向资源单元和所述边缘节点与所述云中心形成的纵向资源单元;
其中,所述资源通道包括横向资源通道和纵向资源通道;
其中,所述利用深度强化学习技术对边云系统的资源进行定制包括:
利用Actor-Critic算法对马尔可夫决策过程进行训练;
所述边缘节点根据所述边云系统的状态,利用训练好的马尔可夫决策过程将所述边缘节点网络邻域内的资源进行定制,形成所述资源单元;
其中,所述马尔可夫决策过程可由式(1)表示:
其中,ρ表示所述马尔可夫决策过程;Gd表示所述边缘集群d中所述边缘节点和所述边缘节点之间连接关系所构成的图;表示所述边缘节点i的状态空间;表示所述边缘节点i的动作空间;V是所述边缘节点的集合;P是状态转移概率;是奖励函数;
其中,所述奖励函数用来优化马尔可夫决策过程,由式(2)表示:
其中,表示在周期τ内,服务l在所述边缘节点i的吞吐率;Q表示所述SLA集合;δq表示所述资源通道q的所述SLA优先级;Lq表示所述资源通道q的服务集合;
在所述资源通道内进行服务编排,得到服务编排的结果;
根据所述资源单元和所述服务编排的结果,对服务请求进行调度。
2.根据权利要求1所述的方法,其中,所述边缘节点的属性信息包括所述边缘节点的计算能力、内存以及带宽。
3.根据权利要求1所述的方法,其中,所述状态转移概率P由式(3)表示
用来表示在状态下执行动作后,所述状态空间转移到的概率。
4.根据权利要求1所述的方法,其中,所述利用Actor-Critic算法对马尔可夫决策过程进行训练包括:
初始化边云系统的训练环境和训练参数;
获取边云系统的初始观测值;
设置迭代次数和迭代周期大小;
获取所述边缘节点的动作;
所述边缘节点执行资源定制操作;
在所述资源通道内进行服务编排和对服务请求进行调度;
获取下一个系统观测值,并且根据所述奖励函数获取奖励值;
根据迭代周期内的所述下一个系统观测值、所述奖励值、所述动作以及所述状态,更新Actor-Critic算法的参数。
5.根据权利要求1或者4所述的方法,其中,所述利用Actor-Critic算法对所述马尔可夫决策过程进行训练采用分布式训练方法,用于协调多个所述边缘节点之间的训练过程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111025406.1/1.html,转载请声明来源钻瓜专利网。