PyTorch : Tutorial 初級 : NLP のための深層学習 : シーケンスモデルと Long-Short Term Memory ネットワーク (翻訳/解説)
【PyTorch Tutorial 初級: NLP (4) : シーケンスモデルと LSTM】
PyTorch の初級チュートリアルを翻訳しています。最新の PyTorch 0.4.0 リリースにも対応しています。
今回は「NLP のための深層学習 (4)」として品詞タグ付けを題材にシーケンスモデルと LSTM ネットワークを扱います。
シーケンスモデルは NLP の中核を成しますが、その古典的な例としては品詞タグ付けのための HMM (隠れマルコフモデル) や CRF (条件付き確率場) があげられます。そして RNN (リカレント・ニューラルネットワーク) はある種の状態を維持するネットワークです。特に LSTM ではシークエンスの各要素のために隠れ状態を持ち、言語モデルで単語を予測したり、品詞タグ付け、その他多くのことに利用できます。
本チュートリアルでは Pytorch の LSTM の基本仕様を説明した後、品詞タグ付けのための簡単なサンプルを LSTM を利用して実装してみます。