ImageVerifierCode 换一换
格式:PDF , 页数:9 ,大小:1.13MB ,
资源ID:635146      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/635146.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     留言反馈    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于高斯分布的对抗扰动后门攻击方法研究.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于高斯分布的对抗扰动后门攻击方法研究.pdf

1、第36卷第4期2023年8月Vol.36 No.4Aug.2023四川轻化工大学学报(自然科学版)Journal of Sichuan University of Science&Engineering(Natural Science Edition)收稿日期:2022-09-12基金项目:四川省科技计划项目(2020YFG0151);四川轻化工大学人才引进项目(2021RC15);四川轻化工大学研究生创新基金项目(Y2022185);桥梁无损检测与工程计算四川省高校重点实验室开放基金项目(2022QYJ06)通信作者:黄 洪(1976-),男,副教授,博士,研究方向为信息安全、网络安全,(E

2、-mail)文章编号:20967543(2023)04005209DOI:10.11863/j.suse.2023.04.07基于高斯分布的对抗扰动后门攻击方法研究袁国桃1,黄 洪1,2,李 心1,杜 瑞1,王兆莲1(1.四川轻化工大学计算机科学与工程学院,四川 宜宾 644000;2.桥梁无损检测与工程计算四川省高校重点实验室,四川 宜宾 644000)摘 要:在图像分类模型的攻防研究中,大部分后门攻击都是基于白盒模式的场景下发生的,攻击者需要控制训练数据和训练过程才可以实现后门攻击。这一条件导致了后门攻击难以在现实场景下发生。为了提高后门攻击的可行性,本文采用一种基于“灰盒”模式下的攻击场

3、景,攻击者只需要控制训练数据,不必参与训练过程也可以实现后门攻击。现有的后门攻击方式通常是在干净样本中添加补丁作为后门触发器,这样的攻击方式很容易被人工发现或者被防御模型检测出来,而使用对抗攻击可以减少扰动量的异常分布,从而提高有毒样本的隐蔽性。基于这一思想,提出一种满足高斯分布的对抗扰动算法来生成后门触发器,与现有的对抗扰动不同,通过往每轮的对抗迭代中添加一次满足高斯分布的噪声,最后迭代完成后生成的后门触发器更加稳定和隐蔽,在逃避防御检测方面也有更好的效果。实验结果表明,只有平均不到10%的有毒样本会被防御检测到异常,相比于传统的方法被检测率降低了13%左右。关键词:图像分类模型;后门攻击;

4、高斯分布;对抗扰动中图分类号:TP301.6文献标识码:A引 言近年来,深度学习的兴起使得深度神经网络(Deep Neural Network,DNN)模型在分类任务中表现出色,主要涉及到交通信号识别1-2、病情分析3-4、人脸验证5-6等应用场景。然而,这些场景面临着后门攻击的威胁7-8。后门攻击通过数据投毒的方式,在训练模型时将带有后门触发器的有毒样本嵌入模型中。当攻击者输入带有触发器的样本时,模型将错误地分类到预先确定的目标类,但在干净样本上仍然可以保持较高的准确性。目前,后门攻击技术难以应用在现实场景中9-10,主要原因是攻击者需要在模型训练过程中完全控制模型内部结构和参数,这种完全控

5、制模型训练周期的方式称为白盒模式11。相反,黑盒模式12不需要控制训练数据和训练过程,只需要依靠模型输出结果构造对抗样本来使模型错误分类。基于白盒模式,Yao等13和任时萱等14提出了一种Patch第36卷第4期袁国桃,等:基于高斯分布的对抗扰动后门攻击方法研究方式作为后门触发器来实现后门攻击。然而,该方式选择后门触发器时没有考虑数据分布情况和适用场景,很容易被防御模型检测出来。Nguyen等15和Shokri16尝试用后门嵌入和感知动态触发器的方式绕过防御验证,但这对攻击者的能力要求比较高,因为需要完全操控模型的训练过程。基于黑盒模式,Zhong等17提出了一种对抗性扰动来设计触发器,采 用

6、 通 用 对 抗 性 扰 动(Universal Adversarial Perturbation,UAP)方法产生通用触发器。虽然该方法在训练数据上实现了普适性,但在黑盒模式测试中攻击效果不理想。Zhang等18提出了一种有目标的通用对抗性扰动(Targeted Universal Adversarial Perturbation,TUAP)来实现有目标后门攻击,尽管该方法更难被防御模型检测到,但触发器生成方面表现不稳定,导致有毒样本与干净样本之间的差别过于明显。借鉴上述文献的思想及优缺点,本文提出了一种基于灰盒模式下的威胁模型场景来模拟后门攻击。该场景考虑了攻击者和开发者在现实场景下的能力

7、范围,攻击者可以通过对公开数据集进行投毒来实现攻击目的,但是无法访问训练过程,且投毒数据集需要逃避后门防御检测。此外,为了尽可能减少攻击样本被防御模型检测出的数量,本文提出 了 一 种 基 于 高 斯 分 布 的 对 抗 性 扰 动 算 法(Gaussian Noise-Targeted Universal Adversarial Perturbation,GN-TUAP),主要目的是为了更加稳定和隐蔽地生成后门触发器,有效逃避防御算法的检测,达到模型污染的效果。1 威胁模型在攻击者环境、开发者环境和部署环境中的威胁模型如图1所示。在最终部署环境中,攻击者将添加了后门触发器的样本输入到被毒害的

8、模型中,导致Dog被分类为Cat,虽然在这样的场景下没有体现实质性意义,但是如果在自动驾驶领域,当模型将“禁止前进”标识识别为“快速通过”,那么将会带来灾难性的后果。因此,在本节中将从威胁模型中攻击者、攻击场景及攻击目标3个角度来讨论本文提出的攻击方案。图1 不同环境中的威胁模型1.1 攻击者在威胁模型中,假设攻击者可以操控训练数据,但不能操控训练过程。例如,攻击者可以是那些能够访问训练数据存储的人,也可以是训练数据的提供者。由于学习模型在训练阶段使用的训练数据很大,这对于开发者来说,手动检查数据集的安全性是不切实际的,特别是当数据集从多个不可信的来源收集时。因此,数据集很可能在使用之前已经被

9、污染了,但开发者并不会发现。1.2 攻击场景攻击者利用训练数据和通用扰动生成算法来生成通用扰动作为后门触发器并嵌入训练样本中,532023年8月四川轻化工大学学报(自然科学版)以此来破坏数据集。在生成过程中,攻击者可能知道,也可能不知道目标模型的内部结构。如果内部结构是已知的,攻击者可以使用它作为参考模型来生成更有效的GN-TUAP。否则,必须进行跨模型攻击。换句话说,他们可以利用其他可用的模型作为参考模型来生成GN-TUAP,并使用它来进行攻击。在现有技术中,由于受限于数据集的构造成本,大部分开发者在训练模型时会采用互联网上公开的数据集进行训练,故本文只讨论开发者从互联网上获取公开数据集的情

10、况。当开发者需要从互联网上获取公开数据集时,攻击者可以利用文件上传漏洞将有毒数据集替换原来的干净数据集19,有毒数据集通过检测后,开发者会毫不知情地将有毒数据用于模型训练。在DNN模型的训练过程中,后门会潜伏在该模型中,训练好的模型在经过验证后,将会部署到生产环境中。当带有触发器的样本输入该模型时,模型会被异常激活,从而导致输出结果异常。1.3 攻击目标对抗扰动后门攻击的第一个目标是通过数据投毒的方式将后门注入到分类模型中,一旦开发者在生产环境部署了带有后门的分类模型,攻击者就可以利用攻击样本来操控模型的预测结果,最终实现攻击目的。此外,当干净样本输入模型时,预测准确性要与初始模型一致。否则,

11、开发者会在后期验证过程中拒绝部署该模型,因为其精度低于预期。对抗扰动后门攻击的另一个目标是要逃避后门检测工具的检测。有毒样本在训练样本中占比越高,攻击效果越好,但是也越容易被发现。当攻击者对数据集进行投毒污染后,希望通过检测后保留尽可能多的有毒样本来参与模型训练,以此来提高后门攻击的有效性。2 攻击方法GN-TUAP后门攻击主要是基于数据投毒的方式进行,攻击方案由两个阶段组成:1)在扰动生成阶段,采用对抗攻击算法来生成扰动,在每一轮迭代中,添加一种高斯噪声来优化生成的扰动,通过N轮迭代后生成 GN-TUAP;2)在数据投毒阶段,将GN-TUAP嵌入干净样本,并更改对应标签,即可构造成有毒样本,

12、一旦有毒样本被用于模型训练,那么就会导致后门攻击的发生。2.1 GN-TUAP算法2.1.1 基于高斯分布的对抗扰动在 Moosavi-Dezfooli20的研究工作中可以了解到,扰动可以有任意的方向,如果不加以控制,就会造成扰动的不稳定性现象。例如存在扰动点(x0,y0)与决策边界H(x),对抗算法的目的是为了让(x0,y0)朝着H(x)的方向前进,并且最终跨越H(x),即视为攻击成功,而扰动点(x0,y0)与决策边界H(x)之间的距离为扰动大小。在数学领域中,此问题可以视为一个点到直线的距离问题,目的是为了找到最短距离。而对抗算法没有考虑到方向的随机性,因此每一轮的扰动中,该点都是以随机的

13、方向朝着决策边界移动,导致每一轮生成的扰动都存在极大的差异性。为了解决这一问题,本算法采用了一种满足高斯分布的噪声来干扰扰动方向21,使得每一轮生成的扰动幅值更加稳定。此外,该噪声还满足均匀分布20-21,使其扰动点在一定范围内不受周围的影响,这样的好处是可以减少样本异常分布的情况,使得生成的触发器更加隐蔽,如式(1)所示:vi=P(xi,FG,lt)+GN(xi,FG(xi)(1)其 中,xi为 输 入 的 干 净 样 本,lt为 攻 击 目 标,P(xi,FG,lt)是利用FG对抗攻击算法来生成第i个样本的对抗扰动,GN(xi,FG(xi)是在第i个样本处计算FG(xi)的高斯噪声。2.1

14、.2 基于高斯分布的对抗扰动生成算法GN-TUAP算法的目标是找到一个通用扰动V。首先选择第i个样本进入循环,然后选定一个攻击目标lt,利用本文提出的方法结合对抗攻击算法进行迭代,将第i个样本的扰动和第(i+1)个样本的扰动进行叠加,最终生成最后的扰动V,算法详见表1。在外层循环中k和p是为了保证循环能够正常退出,内层的while循环中的P是对抗攻击算法,本算法采54第36卷第4期袁国桃,等:基于高斯分布的对抗扰动后门攻击方法研究用的是DeepFool攻击,在第8行中,P可以根据不同情况选取为任意对抗攻击,对抗攻击的输入通常包括干净样本、对抗攻击算法和攻击目标,GN是高斯噪声,利用均值和方差的

15、大小(均值为 0,方差为0.01)来生成一个很小的扰动量来干扰扰动方向的函数,输入为样本和对抗扰动;在第9行中,叠加每次迭代后的vi,vi是指计算第i个样本的扰动,然后每一个样本的扰动会通过算法叠加到一起,最后生成一个V;第1013行,通过一种限制总体扰动的方式来优化整体扰动的大小;第1415行是统计样本个数,为了保证循环能正常退出;最后在第16行中会返回一个包含所有vi并且经过隐蔽处理的扰动V,返回的扰动V像素大小与输入样本x的像素大小是一样的。表1 GN-TUAP算法输入:Xs表示原目标类别,lt表示攻击目标类别,表示愚弄率的阈值,I表示最大迭代次数,FG表示产生扰动的DNN模型,r表示被

16、投影的球面半径,P表示对抗生成算法输出:V表示生成的GN-TUAP1k=02p=x XsFG(x)=lt3V=04while k I and p (1-)|Xs do5i=06while i n do7if FG(xi)lt then8vi=P(xi,FG,lt)+GN(xi,FG(xi)9V=V+vi10Vsgn=sgnV11Vmin=minnum(|V,r)12V=Vsgn Vmin13i=i+114k=k+115p=x XsFG(x+V)=lt16Return V2.2 数据投毒在数据投毒阶段,首先创建一部分带有后门触发器的有毒样本,该部分样本会让深度神经网络模型难以学习样本特征,从而导

17、致模型对触发器有非常强的依赖性,攻击者便能操控模型输出得到想要的结果;然后将这部分有毒数据集加入到正常数据集中一起训练;最终模型会学习到有毒样本中的后门特征。本文利用 2.1 节所提方法生成的 GN-TUAP对模型后门投毒攻击。首先,从干净数据集中随机抽取部分样本,在该部分样本中添加 GN-TUAP,添加触发器后的样本被称为有毒样本;其次,将这些有毒样本的标签更改为攻击目标的标签,并将更改标签后的有毒样本混合到干净数据集中构建出有毒数据集;最后使用这些有毒数据集训练后的模型被称为中毒模型。3 实验及结果分析3.1 数据集及实验环境本文采用公开的 CIFAR-10、MNIST、Fashion-M

18、NIST数据集进行实验。实验环境是在Anaconda3中使用 Python3.6 的开发环境并基于 Tensorflow-GPU版本的框架与Keras库进行实验;操作系统环境为默认的 Ubuntu 20.04.3 LTS;硬件配置为 Intel Core i5-6300H,显卡为NVIDIA GeForce GTX950;实验采用的干净模型结构共有20层,详细数据见表2。结构包含输入层、卷积层、池化层、Drop层、Flatten层、全连接层、输出层。训练参数见表3,其中包含优化器、学习率、损失函数、激活函数、训练数量和次数。表2 模型结构InputConv2D_1Conv2D_2MaxPool

19、ing2D_3batchsize,32,32,3batchsize,32,32,64batchsize,32,32,64batchsize,16,16,6433,ReLU,padding33,ReLU,paddingPooling size=2Structure LayerOutput ShapeSpecification552023年8月四川轻化工大学学报(自然科学版)Dropout_4Conv2D_5Conv2D_6MaxPooling2D_7Dropout_8Conv2D_9Conv2D_10Conv2D_11Conv2D_12MaxPooling2D_13Dropout_14Flatt

20、en_15Dense_16Dropout_17Dense_18Activationbatchsize,16,16,64batchsize,16,16,128batchsize,16,16,128batchsize,8,8,128batchsize,8,8,128batchsize,8,8,128batchsize,8,8,128batchsize,8,8,128batchsize,8,8,128batchsize,4,4,128batchsize,4,4,128batchsize,2048batchsize,1024batchsize,1024batchsize,10batchsize,10D

21、roput size=0.2533,ReLU,padding33,ReLU,paddingPooling size=2Droput size=0.2533,ReLU,padding33,ReLU,padding33,ReLU,padding33,ReLU,paddingPooling size=2Droput size=0.25ReLUDroput size=0.2510 nodes,softmax续表Structure LayerOutput ShapeSpecification表3 模型参数参数OptimizerLearning RateLoss Function值Adadelta0.00

22、1Categorical_CrossEntropy参数EpochBatch SizeActivation Function值120100ReLU3.2 有效性评估及分析为了评估GN-TUAP的有效性,本文从CIFAR-10数据集中选取了 10对类别进行攻击成功率展示。其中,图2所示为在已知模型结构情况下攻击的有效性。利用已知的干净模型与CIFAR-10数据集构造的有毒样本来毒害模型,并且在该模型上测试了有毒样本与干净样本输入模型时的准确率。在此之前,我们还收集了干净模型中对这10类样本分类的准确率。可以看出,在白盒模式下,后门攻击的成功率非常高,并且将干净样本输入有毒模型时,准确率也并未受到较

23、大影响。此外,本文还采取了灰盒模式下跨模型测试的实验,其攻击成功率见表4。本文选取了VGGNet与ResNet两种模型来模拟未知模型,每个模型以 30%的比例进行投毒训练,并且随机挑选CIFAR-10数据集中500组干净样本嵌入 GN-TUAP进行攻击实验。结果表明,即使攻击者不知道模型结构的情况下,利用 GN-TUAP投毒的方式也可以实现跨模型攻击。75.00%80.00%85.00%90.00%95.00%100.00%105.00%AirplaneDeerBirdDogCatAirplaneCatFrogDeerBirdDogDeerHorseVehicleHorseTruckShipA

24、irplaneShipFrog干净样本输入模型准确率攻击成功率有毒样本输入模型准确率图2 后门攻击的有效性指标表4 跨模型攻击成功率模型Begin Model VGGNetBegin Model ResNet攻击成功率/%91.8289.703.3 隐蔽性评估及分析在隐蔽性评估中,本文与 Zhang 等18提出的TUAP方法在触发器生成的稳定性和有毒样本差异性上进行了比较,结果如图3与图4所示。图3(a)至图3(c)所示为TUAP生成的触发器,可以明显地看到触发器的噪声点不均匀,噪声显得十分不自然,而且在不同样本类别下的触发器差异较大,图3(d)至图3(f)所示为添加TUAP后的有毒样本,可以

25、看出,有毒样本存在明显的数据异常分布,即使是人眼也十分容易辨别出来。图 4(a)至图 4(c)所示为 GN-TUAP方法生成的触发器,可以看出在噪声分布点上十分均匀,更符合自然噪声,而且在不同样本类别下生成的触发器也比较稳定;图4(d)至图4(f)所示为添加GN-TUAP后的有毒样本,可以看出,很难用人眼去识别出有异常分布的形状。56第36卷第4期袁国桃,等:基于高斯分布的对抗扰动后门攻击方法研究(a)触发器一 (b)触发器二 (c)触发器三(a)有毒样本一 (b)有毒样本二 (c)有毒样本三图3 使用TUAP生成的触发器与有毒样本(a)触发器一 (b)触发器二 (c)触发器三(a)有毒样本一

26、 (b)有毒样本二 (c)有毒样本三图4 使用GN-TUAP算法生成的触发器与有毒样本此外,本文还在 Fashion-MNIST 和 MNIST数据集上验证了使用GN-TUAP与TUAP生成的有毒样本与干净样本之间的差异,结果如图5所示。图5(a)至图 5(c)所示为 Fashion-MNIST 数据集上用 GN-TUAP方法所生成的有毒样本,图5(d)至图5(f)所示为MNIST数据集上用GN-TUAP方法所生成的有毒样本,图5(g)至图5(i)所示为Fashion-MNIST数据集上用TUAP方法所生成的有毒样本,图5(j)至图5(l)所示为MNIST数据集上用TUAP方法所生成的有毒样本

27、。总体来说,GN-TUAP 方法在触发器生成上有着非常稳定和隐蔽的优势。使用GN-TUAP不仅能够快速地构造出有毒样本来部署攻击方案,即使有开发者用人工的方式审查数据集,也能轻易地逃避筛查。(a)(b)(c)(d)(e)(f)(g)(h)(i)(j)(k)(l)图5 Fashion-MNIST与MNIST数据集上分别添加GN-TUAP和TUAP后的有毒样本3.4 抗检测性评估及分析在威胁模型中,开发者使用未知数据集时往往会通过防御模型的检测才能使用。本文采取一种基于异常激活来检测样本是否包含后门触发器。首先,它会将所有的输入提供给后门模型,并分别收集它们的激活值,然后通过降维后使用K-mean

28、s算法将激活值聚类为两个集群,如果一个集群中的激活数量低于某一个值,则该集群将被识别为中毒,一旦集群确定中毒,当前模型就会被标记为中毒,并删除中毒聚类中相应的激活数据。利用上述防御模型进行检测实验时,每个类别均输入1500个添加GN-TUAP的有毒样本来评估其抗检测性。因此,当这个 3个指标的值越低,说明GN-TUAP 在抗检测性上就越强,越不容易被检测出来。本文选取了10对样本与TUAP和Patch两种触发器进行比较,并采用P、R、F1值来评估检测结果,详见表 5。表 5 中对比了 GN-TUAP、TUAP 和Patch 3种触发器在防御模型上的抗检测性,可以看到基于Patch的触发器在后门

29、检测模型中几乎全部被检测出来,这是因为基于Patch的触发器并不是对抗扰动,而是一种固定的模式,所以导致其分布异常,无法逃避检测。使用对抗扰动的TUAP与本文提出的 GN-TUAP解决了这一分布异常的问题。使用GN-TUAP方法生成的有毒样本检测率最高的572023年8月四川轻化工大学学报(自然科学版)是将Deer类别识别为Bird类别,检测指标P、R、F1值分别为 31.53%、22.93%和 26.55%,而使用 TUAP方 法 中 有 3 个 类 别 的 有 毒 样 本 检 测 率 均 大 于GN-TUAP 中的最高指标,分别是 Airplane 识别为Deer、Bird 识 别 为 D

30、og 和 Deer 识 别 为 Bird;使 用GN-TUAP方法虽然被检测出了6个异常值,但是平均异常值相对较低,3种检测指标的平均检测率仅有7.4%,而基于TUAP方法检测出了3个异常值,均被标记为后门模型,平均检测率约为 20.53%。因此,GN-TUAP 可以有效防止有毒数据的检测和被剔除,仍然保存大量的有毒数据在数据集中。表5 GN-TUAP、TUAP和Patch在抗检测性上的3种的评估指标%攻击类别类别A类别BAirplaneDeerBirdDogCatAirplaneCatFrogDeerBirdDogDeerHorseVehicleHorseTruckShipAirplaneS

31、hipFrog平均值GN-TUAPP0.0010.320.0010.6031.5321.410.000.002.0616.079.19R0.004.000.007.7322.9311.530.000.000.8012.665.88F10.005.700.008.9426.5514.990.000.001.1514.167.14TUAPP58.2057.530.000.0057.380.000.000.000.000.0017.35R78.4780.730.000.0081.600.000.000.000.000.0024.09F167.2467.180.000.0067.380.000.000

32、.000.000.0020.17PatchP99.2599.92100.00100.0099.4399.37100.0099.68100.00100.0099.77R79.9382.4781.8674.2781.4784.7389.2783.3385.4085.8782.80F188.5590.3690.0385.2389.5691.4794.3390.7892.1392.4090.48GN-TUAP、TUAP和Patch 3种触发器在防御模型上的平均检测指标如图6所示。图6中可清晰地看出,GN-TUAP 只有平均不到 10%的有毒样本会被检测到异常,相比于传统的TUAP被检测率降低了13%左

33、右。0.00%20.00%40.00%60.00%80.00%100.00%120.00%GN-TUAPTUAPpatchPRF1图6 3种触发器的平均检测指标4 结 论近年来,由于后门攻击具有隐蔽性高、破坏性大等特性,该攻击越来越受到关注和研究。目前大部分后门攻击的实施方案都是基于白盒模式下,而这样的模式很难在现实场景中实施。为此,本文提出了一种基于高斯分布的对抗性扰动算法(GN-TUAP),得到以下结论:1)在灰盒模式下,通过 GN-TUAP 可实现跨模型攻击,使用训练数据集与初始模型所生成的GN-TUAP,对VGGNet网络模型和ResNet网络模型能够产生影响。2)与 TUAP 和 P

34、atch 这 2 种触发器相比,GN-TUAP能够更加稳定和隐蔽地生成后门触发器。3)与TUAP相比,GN-TUAP采用了控制扰动方向的方法来稳定扰动生成,能够有效逃避防御算法的检测,达到模型污染的效果,具有更好的抗检测性。58第36卷第4期袁国桃,等:基于高斯分布的对抗扰动后门攻击方法研究参考文献:1 葛凯强,陈铁明.人机交互安全攻防综述J.电信科学,2019,35(10):100-116.2 杜巍,刘功申.深度学习中的后门攻击综述J.信息安全学报,2022,7(3):1-16.3 彭春蕾,高新波,王楠楠,等.基于可视数据的可信身份识别和认证方法J.电信科学,2020,36(11):1-17

35、.4 FENG Y,MA B,ZHANG J,et al.FIBA:frequency-injection based backdoor attack in medical image analysisC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,New Orleans,USA,June 18-24,2022:20876-20885.5 XUE M,HE C,WANG J,et al.Backdoors hidden in facial features:a novel i

36、nvisible backdoor attack against face recognition systemsJ.Peer-to-Peer Networking and Applications,2021,14(3):1458-1474.6 余璀璨,李慧斌.基于深度学习的人脸识别方法综述J.工程数学学报,2021,38(4):451-469.7 GU T,LIU K,DOLAN-GAVITT B,et al.Badnets:evaluating backdooring attacks on deep neural networksJ.IEEE Access,2019,7:47230-472

37、44.8 谭清尹,曾颖明,韩叶,等.神经网络后门攻击研究J.网络与信息安全学报,2021,7(3):46-58.9 LI Y C,HUA J Y,WANG H Y,et al.DeepPayload:black-box backdoor attack on deep learning models through neural payload injectionC/2021 IEEE/ACM 43rd International Conference on Software Engineering(ICSE),Beijing,May 25-28,2021:263-274.10 CHEN Y,G

38、ONG X,WANG Q,et al.Backdoor attacks and defenses for deep neural networks in outsourced cloud environmentsJ.IEEE Network,2020,34(5):141-147.11 SHAFAHI A,HUANG W R,NAJIBI M,et al.Poison frogs!targeted clean-label poisoning attacks on neural networksC/Advances in Neural Information Processing Systems(

39、NIPS),Montreal,Canada,December 3-8,2018:6103-6113.12 LIU Y,MA X,BAILEY J,et al.Reflection backdoor:a natural backdoor attack on deep neural networksC/European Conference on Computer Vision,Cham,Switzerland,August 23-28,2020:182-199.13 YAO Y,LI H,ZHENG H,et al.Latent backdoor attacks on deep neural n

40、etworksC/The 2019 ACM SIGSAC Conference on Computer and Communications Security,London,UK,November 11-15,2019:2041-2055.14 任时萱,王茂宇,赵辉.一种改进的深度神经网络后门攻击方法J.信息网络安全,2021,21(5):82-89.15 NGUYEN T A,TRAN A.Input-aware dynamic backdoor attackJ.Advances in Neural Information Processing Systems,2020,33:3454-34

41、64.16 SHOKRI R.Bypassing backdoor detection algorithms in deep learningC/2020 IEEE European Symposium on Security and Privacy,Genoa,Italy,September 7-11,2020:175-183.17 ZHONG H,LIAO C,SQUICCIARINI A C,et al.Backdoor embedding in convolutional neural network models via invisible perturbationC/The Ten

42、th ACM Conference on Data and Application Security and Privacy,New Orleans,USA,August 3-4,2020:97-108.18 ZHANG Q,DING Y,TIAN Y,et al.AdvDoor:adversarial backdoor attack of deep learning systemC/Proceedings of the 30th ACM SIGSOFT International Symposium on Software Testing and Analysis,Virtual,Denma

43、rk,July 11-17,2021:127-138.19 RIADI I,ARISTIANTO E I.An analysis of vulnerability web against attack unrestricted image file uploadJ.Computer Engineering and Applications Journal,2016,5(1):19-28.20 MOOSAVI-DEZFOOLI S M,FAWZI A,FROSSARD P.Deepfool:a simple and accurate method to fool deep neural netw

44、orksC/Proceedings of the IEEE conference on computer vision and pattern recognition,Las Vegas,USA,June 26-July 1,2016:2574-2582.21 NACHTEGAEL M,SCHULTE S,WEKEN V D,et al.Fuzzy filters for noise reduction:the case of Gaussian noiseC/The 14th IEEE International Conference on Fuzzy Systems,Reno,USA,May

45、 22-25,2005:201-206.592023年8月四川轻化工大学学报(自然科学版)引用格式:中 文:袁国桃,黄洪,李心,等.基于高斯分布的对抗扰动后门攻击方法研究J.四川轻化工大学学报(自然科学版),2023,36(4):52-60.英 文:YUAN G T,HUANG H,LI X,et al.Research on adversarial perturbation backdoor attack based on Gaussian distributionJ.Journal of Sichuan University of Science&Engineering(Natural S

46、cience Edition),2023,36(4):52-60.Research on Adversarial Perturbation Backdoor Attack Based on Gaussian DistributionYUAN Guotao1,HUANG Hong1,2,LI Xin1,DU Rui1,WANG Zhaolian1(1.School of Computer Science and Engineering,Sichuan University of Science&Engineering,Yibin 644000,China;2.Sichuan Province U

47、niversity Key Laboratory of Bridge Non-destruction Detecting and Engineering Computing,Yibin 644000,China)Abstract:In the research of attacks and defenses for image classification models,most backdoor attacks occur in the white-box scenario,where attackers need to control the training data and proce

48、ss to implement the backdoor attack,which makes it difficult for backdoor attacks to occur in real-world scenarios.To improve the feasibility of backdoor attacks,an attack scenario based on the gray-box mode has been proposed in the present study,where attackers only need to control the training dat

49、a and do not need to participate in the training process to implement the backdoor attack.The typical backdoor attack methods existed add patches as backdoor triggers into the clean samples,which is easy to be discovered by manual inspection or detected by defense models.The abnormal distribution of

50、 perturbation can be reduced by using the adversarial attacks,improving the concealment of poison samples.Based on this idea,an adversarial perturbation algorithm that satisfy the Gaussian distribution is proposed to generate backdoor triggers.Unlike the existing adversarial perturbations,the algori

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服