当前位置: 首页 > news >正文

濮阳网站优化公司哪家好做中国旅游网站的目的与必要性

濮阳网站优化公司哪家好,做中国旅游网站的目的与必要性,网站图片动态换名,嵩明建设局网站个人阅读笔记,如有错误欢迎指出 Arxiv 2022 [2201.09441] Federated Unlearning with Knowledge Distillation (arxiv.org) 问题: 法律要求客户端有随时要求将其贡献从训练中消除的权利 让全局模型忘记特定客户的贡献的一种简单方法是从头开始对模型进…

个人阅读笔记,如有错误欢迎指出

Arxiv 2022 [2201.09441] Federated Unlearning with Knowledge Distillation (arxiv.org)

问题:

        法律要求客户端有随时要求将其贡献从训练中消除的权利

        让全局模型忘记特定客户的贡献的一种简单方法是从头开始对模型进行重新训练,但已有的联邦消除方法增加了时间和能量的损耗

挑战:

        全局模型的更新是一个增量过程,每一次更新都依赖上次的更新结果。若需要消除某一客户端的影响,单单在其退出的轮次消除是不够的,需要从头训练才能完全抹除该客户端对全局的贡献。

        由于参与训练的客户端是随机选取的。每个客户端的局部训练过程中存在很多随机性,比如随机抽样的小批数据和批次的排序。所以,即使从头开始重新训练模型,也可能导致全局模型每次都收敛到不同的局部极小值。

        边缘客户端存储空间可能有限,在训练完毕后很有可能会将数据删除。所以,要求客户通过再训练模型来校准历史更新,只在理论上有效。

创新:

        知识蒸馏训练完全在服务器端,不需要标记的数据集,因此不会在客户端侧有时间和能量的消耗,同时也没有网络传输。

        后门特征并不会从教师模型转移到遗忘模型,因为这些特征如果不出现后门模式就不会被激活。

        蒸馏方法阻止了模型与数据的拟合太紧密,有助于更好地泛化训练点,从而有助于提高模型的鲁棒性,并在训练后进一步提高模型的性能。

方法:

        核心思想:消除攻击者的历史参数更新,并通过知识蒸馏的方法恢复损害

        FL知识蒸馏

        (1)在服务器上使用知识蒸馏且不需要标记数据集,因此没有客户端的时间和能量损耗,也没有网络故障

        (2)由于没有触发器,后门特征无法从教师模型转移到消除模型上

        (3)知识蒸馏防止模型过拟合,有更好的泛化性

        消除历史更新

        若用\Delta M_t表示第t轮更新,最终的全局模型M_F​可以看作是初始模型权重M_1和第1轮到第F-1轮更新的组合

        假设共N个客户端且第N个为要消除的目标客户端。由此可以将问题简化为从全局模型更新\Delta M_t​中消除目标客户端N\Delta M_t^N

        计算第t轮新的全局模型更新\Delta M_t'

        方法一:假设在第t轮时只有N-1个客户端参与训练。

        在这种情况下我们可以得到聚合的全局更新

        由于FL的增量学习的性质,该方法不能直接计算累计更新以重构消除模型

        对每轮全局模型进行修正,使用\epsilon_i来表示在每一轮中对全局模型的必要修正

        但是因为联邦学习增量学习过程的特点, \epsilon_t随着通信轮数增加而增加,即使客户端在某轮通信中贡献较小,也会对全局模型造成较大的改变,并且该改变将在后续迭代中放大

        方法二:鉴于方法一,使用懒学习消除客户端影响,

        假设目标客户端仍然参与训练,但是模型更新为0,即\Delta M_t^N=0

        根据上式推导,可得到最终的全局模型M'_F

        只需要从最终的全局模型M_F中减去来自目标客户端N的所有历史平均的更新,然后使用\epsilon_t修正了因为联邦学习增量学习过程引起的偏差

        结合知识蒸馏

        动机:

        当前没有方法能够通过不重新训练更新模型来得到偏差\epsilon_t

        知识蒸馏在训练过程中获得的知识不仅被编码在权重中,还可以从模型的类概率中反映出来,可以提高模型的泛化性和鲁棒性。

        方法:

        将原始的全局模型作为教师模型,将其输出作为lable

        服务器使用无标签的数据训练消除模型,并纠正补救偏差\epsilon。若有带标签的数据,可以结合软标签和硬标签进行训练,且为了获得更多知识,需要给硬标签更少的权重

        具体来说,原始的全局模型通过一个转换logit的softmax输出层产生类预测概率,z_i为每个类计算成一个概率q_i。下式为原始全局模型计算软分类

        T为温度,在softmax层中共享,温度越高概率分布越平均

        z输出层的logit

整体算法

总结:

        相比FedEraser,本文先在全局模型上减去中毒更新,再利用知识蒸馏恢复模型性能。

        后门特征不会从教师模型转移到遗忘模型,因为在知识蒸馏的训练过程中没有后门模式的出现,这些特征就不会被激活。

        减少了额外的通信量,但是对服务器的存储量有较高的要求,并且需要服务器已知恶意客户端是哪一个,需要结合检测方法共同作用。

http://www.yayakq.cn/news/740656/

相关文章:

  • 昆明做网站建设怎么样python 爬虫 做网站
  • 企业网站托管和网站建设服务商优化图片大小的网站
  • 网站在百度上搜不到了诸城网站建设0536s
  • 智能网站平台百度竞价推广屏蔽软件
  • 龙岗网站设计讯息网站策划书最后一步怎么做
  • 网站 做 app开发长沙网站制作哪家好
  • 网站建设服务器一般多少钱芜湖推广公司
  • 保山便宜的网站建设网络运维工程师工作内容
  • 服装网站建设与实现一级A做爰片秋欲浓网站
  • 郑州网站建设公司有哪些网站热力图怎么做
  • php网站开发介绍中国最新军事新闻
  • 网站源码授权惠东东莞网站建设
  • 高端网站建设 企业网站建站邵阳网站建设上科互联
  • 四川省住房和城乡建设厅网站不见了网站定制需求
  • 做零售的国外网站在深圳的中建公司
  • dede网站数据库路径成都室内设计公司排名前十
  • 邢台 建网站双流网站建设
  • 网站开发软件著作权归谁网页传奇游戏排行榜2022
  • 网站建设与管理 pdf如何查询网站备案进度
  • 网站错误页面模板学服装设计有前途吗
  • 营销型网站建设要点哪个公司做网站
  • 哈尔滨市建设网站网络广告推广的兼职
  • 深圳品牌型网站建设做个网站得投入多少
  • 顺德网站制作案例价位wordpress直播主题
  • 海口模板建站系统建设银行网站特色
  • 做网站维护学什么编程语言重庆网站的推广方式
  • 网站建设与管理资料下载温州论坛大罗山
  • wordpress五分钟建站做特卖的网站怎么赚钱
  • 自媒体采集网站建设金蝶erp系统介绍
  • 佛山北京网站建设公司哪家好网站如何添加外链