如何在神经网络中实现对抗样本中的原始性保护?

我在研究神经网络中的对抗样本,现在面临一个问题:如何在保护数据原始性的条件下,实现对抗样本的生成。我希望生成的对抗样本能够欺骗模型,但也需要保证样本的原本含义不被扭曲,以免对模型的评估产生负面影响。我希望有相关方向的研究者或者专家能够提供一些思路或者算法建议,帮助我在数据保护和效果增强之间找到平衡点。

提问时间:2023-05-18 12:19:16 编辑时间:2023-05-18 12:19:18 提问者: Shadow_Warrior
  • 紫藤仙子
    1

    针对你所提到的问题,目前有一些保持数据原始性的方法可以在神经网络中实现对抗样本的生成。

    一种常用的方法是基于生成对抗网络(GAN),使用同一数据集中的真实样本和生成的对抗样本来训练模型。这种方法可以保持数据的原始性,并且生成的对抗样本能够欺骗模型,从而提高模型的鲁棒性。

    另一种方法是降低对抗样本的扰动,即尝试将扰动降到最小程度,从而保持数据的原始含义。这种方法可以通过对抗样本生成算法中的扰动限制来实现。

    同时,还有许多其他的方法可以实现对抗样本的原始性保护,如基于梯度控制的方法、模型集成方法等。针对特定的数据集和模型,需要进行具体的实验和调整以找到最佳的平衡点。

    回答时间:2023-05-18 12:19:21