LangChain : モジュール : モデル I/O – 言語モデル : LLM : ストリーミング / トークン使用量の追跡 (翻訳/解説)
【大規模言語モデル:LangChain】モジュール:モデル I/O - 言語モデル:LLM(ストリーミング / トークン使用量の追跡)
LangChain は、複数の大規模言語モデル(LLM)の組み合わせを支援するフレームワークです。
今回は「言語モデル:LLM」からストリーミングとトークン使用量の追跡について説明します。。
現在、OpenAI, ChatOpenAI, ChatAnthropic, Hugging Face テキスト生成推論と Replicate を含む広範囲な LLM に対してストリーミングをサポートしています。
大規模言語モデル (LLM) の独立した使用は真に強力なアプリケーションを作成するには不十分である場合が多く、それらを他の計算や知識のソースと組み合わせることが望まれます。
LangChain はこのような種類のアプリケーションの開発を支援することを目標とするフレームワークです。
[More]