PyTorch 1.3 Tutorials : 画像 : 敵対的サンプルの生成 (翻訳/解説)

【PyTorch 1.3 Tutorials : 画像】
◆ 敵対的サンプルの生成
PyTorch は TensorFlow とともに多く利用されている深層学習フレームワークです。1.3 では機能が大幅に追加されてドキュメントも追加・修正が入っていますので、順次再翻訳しています。
今回は「画像」カテゴリーから、敵対的サンプルの生成を扱うチュートリアルです。機械学習の研究はモデル・パフォーマンスの改良を推し進めていますが、しばしば見落とされる側面はセキュリティと堅牢性です。特にモデルを騙そうとする敵対者の存在です。このチュートリアルでは ML モデルのセキュリティ脆弱性への認識を高め、敵対的機械学習のホットなトピックへの洞察を与えます。ここでは MNIST 分類器を騙すために、高速で最もポピュラーな攻撃メソッドの一つ – 高速勾配 Sign 攻撃 (FGSM) を使用します。
チュートリアルは「Getting Started」「画像」「音声」「テキスト「強化学習」「分散訓練」等々のカテゴリーに分かれています。
http://torch.classcat.com/2019/12/21/pytorch-1-3-tutorials-image-fgsm/?fbclid=IwAR3AxmWa-AEEnm9CWR3BgZQdmdqT3R3jP9QDvz0dM3pdZGkGv6MV-IuYhAg