543877815/543877815.github.io

【论文笔记】 Towards Evaluating the Robustness of Neural Networks | 逗比学长的博客

543877815 opened this issue · 1 comments

https://543877815.github.io/2020/03/14/%E3%80%90%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%E3%80%91-Towards-Evaluating-the-Robustness-of-Neural-Networks/

今天读了一下 Towards Evaluating the Robustness of Neural Networks,这是关于对抗样本(Adversarial Example)的paper,主要贡献是提出了Carlini & Wagner Attack神经网络有目标攻击算法,打破了最近提出的神经网络防御性蒸馏(Defensive Distillation),证明防御性蒸馏不会显著提高神经

我觉得他这篇文章里讲f1,f4为什么不好那一块是不是有些问题啊?f1交叉熵的导数怎么会恒等于一个softmax函数呢?交叉熵的导数按理说应该是一条直线吧?而且导数绝对值应该为从大到小线性变换,那就不会存在作者所说的一开始导数接近于0的情况了吧。不知道是不是我哪里理解错了?求讨论。