TensorFlow : Tutorials : ニューラル機械翻訳 (seq2seq) チュートリアル (翻訳/解説)

【TensorFlow Tutorials: ニューラル機械翻訳 (seq2seq)】
TensorFlow の Tutorials に数編が新規追加されましたので再翻訳しています。
今回は seq2seq モデルの具体例である attention メカニズム装備のニューラル機械翻訳を通して Google の NMT (GNMT) システムへの到達を目標とします。
seq2seq (Sequence-to-sequence) モデルは機械翻訳、音声認識、テキスト要約等の各種タスクで大きな成功をおさめていますが、このチュートリアルでは seq2seq モデルの完全な理解を与えると共に、競争力のある seq2seq モデルをスクラッチからどのように構築するかが示されます。
特にニューラル機械翻訳 (NMT) のタスクにフォーカスし、その実装は軽量・高品質で最新の研究アイデアが組み込まれ、更にプロダクション・レディでもあります。
この実装を以下により獲得します:
(1) 最新のデコーダ / attention ラッパー API、TensorFlow
1.2 データ iterator を使用する;
(2) 強力な専門技術をリカレントと seq2seq モデルの構築に組み入れる; (3) ベストな NMT モデルの構築と Google NMT (GNMT) システムのレプリカのためのティップスとトリックを提供する。
http://tensorflow.classcat.com/2018/06/07/tensorflow-tutorials-seq2seq/