ICCV2017採択論文"Adversarial Examples for Semantic Segmentation and Object Detection"のレビュー.
元論文はこちら.
分類タスクにおいて,ニューラルネットワークの誤分類を誘発する攻撃手法であるAdversarial AttacksがSemantic SegmentationおよびObject Detectionタスクでも有効であることを示した論文.
Abstract
一般的にはClassificationタスクに対して適用されるAdversarial ExamplesをSemantic SegmentationとObject Detectionタスクに対して適用した研究.
著者らの観測から,Semantic SegmentationとObject Detectionは画像内の複数ターゲットのClassificationタスクの組み合わせから成り立っていることから,損失関数の適切な最適化によってAdversarial Examplesを生成できることを示している.これに基づき,著者らはsegmentationとdetectionに適用可能な攻撃方法であるDense Adversary Generation (DAG)を提案.
さらに,提案手法で生成したAdversarial Examplesは異なるアーキテクチャ,学習データセットおよび異なるタスクの間で使いまわせる.
Dense Adversary Generation
提案手法であるDense Adversary Generation (DAG)は,入力画像とターゲットが与えられたとき,できるだけ多くのターゲットのご認識を誘発するようなAdversarial Examplesを生成する.
目的としては,ある特定のタスクについて,ネットワークの予測のすべてを間違わせるようなadversarial exampleを生成すること.
]
を最小化したとき,すべてのターゲットについて間違った予測を誘発することができる.
提案手法では,最適化に勾配降下法を利用している.
各ステップで勾配を計算して摂動を累積していく.
]
最終的なAdversarial Examplesは
Experimental Results
- 一つのAdversarial Exampleで複数のネットワーク,複数のタスクで誤認識を誘発することに成功している