看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于安全多方计算和差分隐私的联邦学习方案 收藏
基于安全多方计算和差分隐私的联邦学习方案

基于安全多方计算和差分隐私的联邦学习方案

作     者:汤凌韬 王迪 张鲁飞 刘盛云 TANG Ling-tao;WANG Di;ZHANG Lu-fei;LIU Sheng-yun

作者机构:数学工程与先进计算国家重点实验室江苏无锡214125 上海交通大学网络空间安全学院上海200240 

基  金:国家重点研发计划(2016YFB1000500) 国家科技重大专项课题(2018ZX01028102) 

出 版 物:《计算机科学》 (Computer Science)

年 卷 期:2022年第49卷第9期

页      码:297-305页

摘      要:联邦学习为非互信实体间的合作学习提供了一种新的解决思路,通过本地训练和中央聚合的模式,在训练全局模型的同时保护各实体的本地数据隐私。然而相关研究表明,该模式下无论是用户上传的局部模型,还是中央聚合的全局模型,都会泄露用户数据的信息。安全多方计算和差分隐私作为两种主流的隐私保护技术,分别保护计算过程和计算结果的隐私。目前很少有工作结合这两种技术的优势,用于联邦学习训练全流程的防护。将安全多方计算、差分隐私相结合,设计了一种面向深度学习的隐私保护联邦学习方案,用户对本地训练得到的局部模型添加扰动,并秘密共享至多个中央服务器,服务器间通过多方计算协议对局部模型进行聚合,得到一个共享的秘密全局模型。该方案在保护用户上传的局部信息不被窃取的同时,防止敌手从聚合模型等全局共享信息展开恶意推断,并具有容忍用户掉线和兼容多种聚合函数等优点。此外,针对不存在可信中心的现实应用,上述方案可自然拓展至去中心化场景。实验表明,所提方案与相同条件下的明文联邦学习效率相近,且能取得同水平的模型准确率。

主 题 词:联邦学习 安全多方计算 差分隐私 隐私保护 深度学习 

学科分类:08[工学] 0839[0839] 081201[081201] 0812[工学-测绘类] 

D O I:10.11896/jsjkx.210800108

馆 藏 号:203114182...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分