PyTorch 1.5 Tutorials : 画像 : 敵対的サンプルの生成 (翻訳/解説)

【PyTorch 1.5 Tutorials : 画像 : 敵対的サンプルの生成】
今回は「画像」カテゴリーから、敵対的サンプルの生成を扱うチュートリアルです。機械学習の研究においてしばしば見落とされる側面はセキュリティと堅牢性です。特にモデルを騙そうとする敵対者の存在です。
このチュートリアルでは ML モデルのセキュリティ脆弱性への意識を高め、敵対的機械学習のホットなトピックへの洞察を与えます。ここでは MNIST 分類器を騙すために、高速で最もポピュラーな攻撃メソッドの一つ – 高速勾配 Sign 攻撃 (FGSM) を使用します。
PyTorch は TensorFlow とともにポピュラーな深層学習フレームワークです。PyTorch 1.5 が 4 月にリリースされてドキュメントも再構成されていますので再翻訳しています。
チュートリアルは「PyTorch の学習」「画像/ビデオ」「音声」「テキスト」「強化学習」等のカテゴリーに分かれています。
[人工知能研究開発支援]を提供してます。
http://torch.classcat.com/2020/06/08/pytorch-1-5-tutorials-image-fgsm/?fbclid=IwAR2N7QLZexaMndHRApXpt0e_aICDB2SI7yI2WJvAyikuGJR0q5Hw-96PSc4