“联邦学习中的全球模型指的是一个集中式机器学习模型,该模型通过多台设备或节点协作训练,而无需直接共享它们的本地数据。参与者(通常是移动设备或边缘设备)使用其自己的数据训练模型的本地版本,而不是将原始数据发送到中央服务器。在本地训练之后,每个设备只将模型更新(例如权重变化或梯度)发送回中央服务器。然后,服务器汇总这些更新,以改进全球模型,随后将其分发回所有参与设备进行进一步训练。这种方法保护了数据隐私,因为原始数据始终留在用户的设备上。
例如,考虑一个公司正在为智能手机开发预测文本模型的场景。用户的打字数据非常敏感和私密,因此该公司没有选择在中央库中收集这些数据,而是使用联邦学习。每个用户的手机根据他们本地的打字习惯训练模型。在本地训练之后,只有模型更新被发送到服务器,在那里它们与其他用户手机的更新进行平均。这种聚合过程创建了一个更通用的全球模型,它可以从所有用户多样化的打字模式中学习,同时保持个体数据的机密性。
通过不断重复这一训练和聚合过程,全球模型随着时间的推移变得更为精确,反映了来自更广泛受众的见解,同时不侵犯用户隐私。这种协作的方法不仅增强了用户信任,还使得能创建出在不同背景和用户行为下表现良好的强大模型,最终促成更优质和个性化的应用。