Review

Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models

ICLR2018採択論文"Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models"のレビュー. 元論文はこちら 問題設定としては,クラウドでAPIとして提供されているような機械学習モデルに対して,最終的な分類結果の…

Practical Black-Box Attacks against Machine Learning

ニューラルネットワークのアーキテクチャおよび勾配情報なしに攻撃を行うBlack-Box Adversarial Attackについての論文. Adversarial Attackについての概要とPyTorchを用いた実装については以下の記事を参照. noconocolib.hatenablog.com 概要 paper link W…

SaaS: Speed as a Supervisor for Semi-supervised Learning

ECCV2018採択論文"SaaS: Speed as a Supervisor for Semi-supervised Learning"の論文読みメモ. paper link 概要 ニューラルネットの学習スピードそのものを活用したsemi-supervised learningのアルゴリズムであるSaaSを提案.教師あり学習時の学習速度は学…

ICLR2019気になった論文メモ(4)

ICLR2019採択論文のうち,気になったものをメモしていく. その3. noconocolib.hatenablog.com Efficient Augmentation via Data Subsampling AdaShift: Decorrelation and Convergence of Adaptive Learning Rate Methods A Closer Look at Few-shot Class…

ICLR2019気になった論文メモ (3)

ICLR2019採択論文のうち,気になったものをメモしていく. その2. noconocolib.hatenablog.com Combinatorial Attacks on Binarized Neural Networks Exemplar Guided Unsupervised Image-to-Image Translation with Semantic Consistency The Unusual Effec…

ICLR2019気になった論文メモ (2)

ICLR2019採択論文のうち,気になったものをメモしていく. その1. noconocolib.hatenablog.com その3. noconocolib.hatenablog.com Pay Less Attention with Lightweight and Dynamic Convolutions Transferring Knowledge across Learning Processes Lar…

ICLR2019気になった論文メモ

ICLR2019採択論文のうち,気になったものをメモしていく. その2. noconocolib.hatenablog.com Slimmable Neural Networks Deep Decoder: Concise Image Representations from Untrained Non-convolutional Networks Three Mechanisms of Weight Decay Reg…

Value-aware Quantization for Training and Inference of Neural Networks

ECCV2018採択論文"Value-aware Quantization for Training and Inference of Neural Networks"の解説. paper link Abstract ニューラルネットワークの量子化手法であるV-Quantの提案. ネットワークの重みで用いられる値のprecisionを削減することでモデル…

XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks

ECCV2016に採択されたXNOR-Netについての解説. arxiv.org この論文は畳み込みニューラルネットワークについて,2種類の効率的な近似を提案: Binary-Weight-Networks XNOR-Networks Binary-Weight-Networksではフィルタの重みが2値で表現され,XNOR-Networks…