我在研究神经网络中的对抗样本,现在面临一个问题:如何在保护数据原始性的条件下,实现对抗样本的生成。我希望生成的对抗样本能够欺骗模型,但也需要保证样本的原本含义不被扭曲,以免对模型的评估产生负面影响。我希望有相关方向的研究者或者专家能够提供一些思路或者算法建议,帮...