← 返回列表
模型聚合方法、装置、设备、联邦学习系统及存储介质
摘要文本
本发明公开了一种模型聚合方法、装置、设备、联邦学习系统及存储介质,属于边缘计算领域,用于对边缘计算设备中待聚合的模型参数进行筛选,解决了不重要的模型参数传输影响模型训练效率以及模型精度的问题。分别确定本地网络模型的各个模型参数对于本地网络模型性能的第一影响程度以及各个骨干网络层对于本地网络模型性能的第二影响程度,结合第一、第二影响程度对模型参数进行筛选,可剔除对本地网络模型性能影响较小的模型参数,不但降低了数据传输成本,提升了数据传输效率,而且避免了重要程度较低的模型参数对模型精度的影响,使中心服务器在工业设备故障预测、网络安全问题识别与图片分类时发挥最优的效果。
申请人信息
- 申请人:浪潮电子信息产业股份有限公司
- 申请人地址:250000 山东省济南市高新区草山岭南路801号9层东侧
- 发明人: 浪潮电子信息产业股份有限公司
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 模型聚合方法、装置、设备、联邦学习系统及存储介质 |
| 专利类型 | 发明申请 |
| 申请号 | CN202410230004.2 |
| 申请日 | 2024/2/29 |
| 公告号 | CN117808125A |
| 公开日 | 2024/4/2 |
| IPC主分类号 | G06N20/00 |
| 权利人 | 浪潮电子信息产业股份有限公司 |
| 发明人 | 李仁刚; 郭振华; 范宝余; 张润泽; 贺蒙; 曹芳; 赵雅倩; 鲁璐; 赵坤; 王立 |
| 地址 | 山东省济南市高新区草山岭南路801号9层东侧 |
专利主权项内容
1.一种异构分布式计算的模型聚合方法,应用于联邦学习系统中的边缘计算设备,其特征在于,包括:在利用中心服务器发送的全局网络模型对所述边缘计算设备的本地网络模型进行更新后,利用本地数据集对所述本地网络模型进行迭代训练;确定所述本地网络模型的各个模型参数对于所述本地网络模型的性能的第一影响程度;确定所述本地网络模型的各个骨干网络层对于所述本地网络模型的性能的第二影响程度;结合所述第一影响程度与所述第二影响程度,进行模型参数的筛选;将筛选后的模型参数在所述联邦学习系统内进行传输,以便进行邻域间聚合、簇网络模型以及全局网络模型的多层级聚合,所述中心服务器通过所述全局网络模型执行预设任务;其中,所述预设任务包括预测工业设备的故障、识别网络安全问题以及对图片进行分类中的任一种。