“联邦学习中的安全聚合是一种旨在保护个别参与者隐私的技术,同时仍允许其贡献改善共享模型。在联邦学习中,多个设备或客户端协同训练机器学习模型,而无需彼此或共享给中央服务器原始数据。安全聚合确保服务器能够从客户端计算聚合更新,而无法看到单个更新,从而保持数据的机密性。
这一过程通常涉及在每个客户端将模型更新发送到服务器之前对其进行加密。例如,每个客户端根据其本地数据生成更新,而不是将此更新直接发送给服务器,而是首先使用安全方法对其进行加密。服务器收集这些加密更新,并以一种方式将它们结合起来,从而能够计算聚合更新,同时对单个更新的内容保持无知。这可以通过同态加密或安全多方计算等技术实现,其中在不解密数据的情况下对加密数据进行数学操作。
通过实施安全聚合,开发人员可以有助于增强联邦学习系统的隐私性和安全性。例如,考虑一种场景,其中用户的智能手机模型被训练以提高预测文本的能力,同时保持其打字习惯的私密性。通过安全聚合,尽管服务器接收的是基于用户打字数据的模型更新,但它无法访问或推测任何关于个别用户的个人信息。这增加了用户的信任,使他们更愿意参与联邦学习倡议,最终在不妥协隐私的情况下实现更好的模型性能。”