PyTorch 1.1 Tutorials : 画像 : 敵対的サンプルの生成 (翻訳/解説)

【PyTorch 1.1: Tutotrials: 画像 – 敵対的サンプルの生成】
PyTorch 1.1 リリースのチュートリアルの再翻訳を進めています。
今回は「画像」カテゴリーから敵対的サンプルを生成するチュートリアルです。機械学習の研究はモデル・パフォーマンスの改良を推し進めていますが、しばしば見落とされる側面はセキュリティと堅牢性です。特にモデルを騙そうとする敵対者の存在です。
このチュートリアルは ML モデルのセキュリティ脆弱性への認識を高め、敵対的機械学習のホットなトピックへの洞察を与えます。画像への知覚できない摂動の追加はモデル・パフォーマンスの劇的な低下を引き起こします。ここでは MNIST 分類器を騙すために、高速で最もポピュラーな攻撃メソッドの一つ – 高速勾配 Sign 攻撃 (FGSM) を使用します。
PyTorch は TensorFlow とともに多く利用されている深層学習フレームワークです。5 月に PyTorch 1.1 がリリースされ 1.0 のドキュメントから追加や修正が入っていますので、順次再翻訳しています。
http://torch.classcat.com/2019/07/14/pytorch-1-1-tutorials-image-fgsm/?fbclid=IwAR3Z5YIH6IxkTnvU5Aw_B6npysWv4tlG9wltrZRcFUFFxgr-mEEH5trXUKY