针对对抗攻击对神经网络中模型造成的“污染”问题,以下是几种缓解方法:
数据增强:通过向训练数据集中添加对抗样本或随机扰动样本等方式进行“数据增强”,使得神经网络能够更好地学习样本的分布规律,提升模型的鲁棒性。
对抗训练:在训练过程中加入对抗样本,让模型具有对抗攻击的免疫能力,从而通过对抗攻击测试集的测试,提高模型的鲁棒性。
模型压缩:可以通过一些模型压缩算法,如剪枝、量化等,减少神经网络的参数量,从而降低模型因对抗攻击而受损的风险。
模型解释性加强:对于神经网络进行可解释性分析,并加入一些人类能够理解的规则,增强模型的解释性,提高模型的鲁棒性。
以上建议仅供参考,具体的缓解方法需根据实际情况和数据集特性进行具体分析和设计。