[发明专利]一种基于改进Q学习算法的多目标云资源调度方法在审
申请号: | 201910807351.6 | 申请日: | 2019-08-29 |
公开(公告)号: | CN110515735A | 公开(公告)日: | 2019-11-29 |
发明(设计)人: | 李成严;孙巍;宋月 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06F9/50 | 分类号: | G06F9/50 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供了一种基于改进Q学习算法的多目标云资源调度方法。该方法通过Agent与环境进行不断交互,学习得到最优策略。本发明通过Cloudsim云计算仿真平台,随机生成不同任务和虚拟机,以同时优化任务的完成时间和运行成本为优化目标,设计一种基于改进Q学习算法的多目标云资源调度方法,采用自动更新权重因子的启发式动作选择策略加快Q学习算法的收敛速度,同时提高算法的寻优能力,以提高云资源的利用率,提高用户满意度,降低运营商成本。 | ||
搜索关键词: | 资源调度 多目标 用户满意度 动作选择 仿真平台 权重因子 随机生成 优化目标 运行成本 自动更新 最优策略 启发式 虚拟机 云计算 运营商 算法 寻优 收敛 改进 优化 学习 | ||
【主权项】:
1.基于改进Q学习算法的多目标云资源调度方法,其特征在于,Agent通过与环境进行交互,选择回报值最大的动作执行,在动作选择阶段,本方法考虑将权重因子与启发式函数相结合,依据Agent每次训练后的立即回报值,自动更新不同动作执行后的权重因子,从而确定动作选择策略,提高算法收敛速度,具体过程如下:/n步骤1:使用Cloudsim仿真平台随机生成任务数据与虚拟机数据;/n步骤2:定义Q学习的状态空间S:由一个动态数组表示,其中状态s用一维数组表示,s的下标表示任务序号,s的值表示虚拟机序号;/n步骤3:定义Q学习的动作集合A:将动作定义为整型变量,当执行将第i个任务分配给第j台虚拟机这一动作时,则将整型量j赋值给状态s数组中第i个值;/n步骤4:定义Q学习算法的立即回报函数:r=ω*(Etc-Ti)+(1-ω)*(Cst-Ci);其中,Ti和Ci分别表示当前状态下第i台虚拟机已经分配的任务的总执行时间和执行任务的总成本,Etc和Cst都表示较大常数,此处将Etc设置为所有任务在所有虚拟机上的总执行时间,Cst设置所有任务在所有虚拟机上的总成本;/n步骤5:使用基于自动更新权重因子的Q学习算法对生成任务数据和虚拟机数据进行调度分配。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910807351.6/,转载请声明来源钻瓜专利网。