[发明专利]算力的计算方法、装置、终端设备和存储介质在审
申请号: | 202111281679.2 | 申请日: | 2021-11-01 |
公开(公告)号: | CN114239844A | 公开(公告)日: | 2022-03-25 |
发明(设计)人: | 黄茗;杨军;王滨;钱宝生;原鑫 | 申请(专利权)人: | 中国电子科技集团公司第十五研究所 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京秉文同创知识产权代理事务所(普通合伙) 11859 | 代理人: | 赵星;陈少丽 |
地址: | 100083 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 计算方法 装置 终端设备 存储 介质 | ||
本发明涉及一种算力的计算方法、装置、终端设备和存储介质,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
技术领域
本发明涉及计算机技术领域,尤其涉及一种算力的计算方法、装置、终端设备和存储介质。
背景技术
随着人工智能领域的快速发展,各种基于深度学习模型的应用不断被开发,如何高效地为用户提供智能服务是IT从业者们关心的问题。硬件是其中一个比较关键的问题。目前,国内有许多针对智能计算而开发的NPU加速卡,这些加速卡的算力不能简单通过硬件数据进行计算。而且,通过硬件数据计算出来的算力仅是理想值,实际算力需要根据具体的深度学习应用来测试。
MLPerf是一套用于测量和提高机器学习软硬件性能的通用基准,主要用来测量训练和推理不同神经网络所需要的时间。但是MLPerf对部分NPU加速卡并不适用,无法对用户任务的算力进行预测。
发明内容
本发明意在提供一种算力的计算方法、装置、终端设备和存储介质,以解决现有技术中存在的不足,本发明要解决的技术问题通过以下技术方案来实现。
第一个方面,本发明实施例提供一种算力的计算方法,所述方法包括:
获取待预测算力的用户任务,其中,所述用户任务至少包括目标任务类型和目标任务量;
根据预先建立的预训练模型,对与所述目标任务类型的用户任务进行模型推理,确定执行所述用户任务所需要的与所述目标任务量对应的算力信息,其中,所述预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,所述目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
可选地,所述预先建立的预训练模型通过如下方式得到:
获取不同任务类型对应的训练样本集,其中,所述不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型。
可选地,所述获取不同任务类型对应的训练样本集,包括:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
可选地,所述采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型,包括:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第十五研究所,未经中国电子科技集团公司第十五研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111281679.2/2.html,转载请声明来源钻瓜专利网。