← 返回列表

面向弱算力终端参与的联邦学习方法及相关设备

申请号: CN202311767146.4
申请人: 中国电信股份有限公司技术创新中心; 中国电信股份有限公司
申请日期: 2023/12/20

摘要文本

本公开提供了一种面向弱算力终端参与的联邦学习方法及相关设备,涉及分布式机器学习技术领域。该方法包括:对待训练全局模型进行拆分得到多个待训练本地子模型,将多个待训练本地子模型部署至各个算力受限终端和各个算力受限终端对应的辅助计算节点;接收各个算力受限终端发送的本地模型,本地模型由各个算力受限终端采用对应的辅助计算节点根据本地数据对多个待训练本地子模型进行训练得到的;对各个算力受限终端的本地模型进行模型聚合,若满足预设训练停止条件,则得到全局模型,将全局模型发送至各个算力受限终端,从而可以使算力受限终端参与联邦学习的模型训练,提升模型训练效率。

专利详细信息

项目 内容
专利名称 面向弱算力终端参与的联邦学习方法及相关设备
专利类型 发明申请
申请号 CN202311767146.4
申请日 2023/12/20
公告号 CN117521855A
公开日 2024/2/6
IPC主分类号 G06N20/00
权利人 中国电信股份有限公司技术创新中心; 中国电信股份有限公司
发明人 李鹏宇; 邢燕霞
地址 北京市昌平区北七家镇未来科技城南区中国电信北京信息科技创新园11层1118室、1116室; 北京市西城区金融大街31号

专利主权项内容

1.一种面向弱算力终端参与的联邦学习方法,其特征在于,应用于学习服务管控功能,所述方法包括:对待训练全局模型进行拆分得到多个待训练本地子模型,将所述多个待训练本地子模型部署至各个算力受限终端和所述各个算力受限终端对应的辅助计算节点;接收所述各个算力受限终端发送的本地模型,所述本地模型由所述各个算力受限终端采用对应的辅助计算节点根据本地数据对所述多个待训练本地子模型进行训练得到的;对各个算力受限终端的本地模型进行模型聚合,若满足预设训练停止条件,则得到全局模型,将所述全局模型发送至所述各个算力受限终端。 关注公众号马克数据网