HuggingFace Transformers 4.5 : 利用方法 : 多言語モデル (翻訳/解説)

【HF Transformers 4.5 : 利用方法 : 多言語モデル】
今回は「多言語モデル」です。利用可能な殆どのモデルは単一言語モデルですが、幾つかの多言語モデルが利用可能で、単一言語モデルとは異なるメカニズムを持ちます。このドキュメントはそれらのモデルの使用方法を詳述します。多言語をサポートする 2 つのモデルは BERT と XLM です。

HuggingFace Transformers は最先端の自然言語処理を可能にする PyTorch と TensorFlow 2.0 のためのエコシステムです。両者はシームレスに統合され、一方で訓練してから推論のために他方でロードすることも可能です。モデルハブにより数千の事前訓練モデルが提供されています。
最近リリースされた 4.5 をベースにドキュメントを幾つか翻訳しています。 [詳細]

【2021年05月26日(水):ウェビナー】15:30-17:30 [詳細]
人工知能テクノロジーを実ビジネスで活用するには?Vol.104
~ 具体的な導入プロセスと運用の考慮ポイントを解説 ~
[特別講演]日本FLOWが提供している「AIデータアノテーションサービス」を紹介