LangChain で会話概要バッファを使用するにはどうすればよいですか?

Langchain De Hui Hua Gai Yaobaffawo Shi Yongsurunihadousurebayoidesuka



LangChain は、自然言語でデータセットを理解できるモデルを構築するためのすべての依存関係とライブラリを備えたフレームワークです。これらのモデルは、自然言語でテキストを生成したり、ユーザーが提供した入力に基づいて最も類似したデータを抽出したりすることもできます。チャットボットまたは LLM は、人間との会話を構築し、すべてのメッセージを使用して会話の概要を抽出するために使用されます。

このガイドでは、LangChain で会話概要バッファを使用するプロセスを説明します。

LangChain で会話概要バッファを使用するには?

会話は人間と機械の間の対話に似た複数のメッセージで構成され、バッファには最新のメッセージを保存できます。の 会話概要バッファメモリ library は、最新のメッセージの保存とその概要の抽出などの両方の概念を組み合わせるために使用されます。







LangChain で会話概要バッファーを使用するプロセスを学習するには、次のガイドを参照してください。



ステップ 1: モジュールをインストールする

まず、pip コマンドを使用して LangChain モジュールをインストールし、必要なライブラリを取得します。



pip インストール ラングチェーン





テキストドキュメントを小さなチャンクに分割するために使用できる tiktoken トークナイザーをインストールします。

pipインストールtiktoken



その後、LLM やチェーンなどの言語モデルの構築に使用できる OpenAI モジュールをインストールします。

pip インストール openai

今、 環境をセットアップする OpenAI アカウントから API キーを取得し、それをモデルで使用します。

輸入 あなた
輸入 ゲットパス

あなた [ 「OPENAI_API_KEY」 ] = ゲットパス ゲットパス ( 「OpenAI API キー:」

ステップ 2: 会話概要バッファの使用

OpenAI() メソッドを使用してライブラリをインポートして LLM を構築し、会話概要バッファーを使用するプロセスを開始します。

から ラングチェーン。 メモリ 輸入 会話概要バッファメモリ

から ラングチェーン。 llms 輸入 OpenAI

llm = OpenAI (

ConversationsummaryBufferMemory() メソッドを使用してメモリを構築し、会話をメモリに保存します。

メモリ = 会話概要バッファメモリ ( llm = llm max_token_limit = 10

メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } { '出力' : 'お元気ですか' }

メモリ。 コンテキストの保存 ( { '入力' : 「私は大丈夫です、あなたはどうですか」 } { '出力' : 'あまりない' }

ここで、を呼び出してメモリを実行します。 ロードメモリ変数 () メモリからメッセージを抽出するメソッド:

メモリ。 ロードメモリ変数 ( { }

ここで、会話のバッファ概要を使用して、バッファに保存するメッセージの数を制限することでバッファを構成します。その後、バッファに保存されているこれらのメッセージの概要を抽出し、会話をメモリに保存します。

メモリ = 会話概要バッファメモリ (

llm = llm max_token_limit = 10 return_messages = 真実



メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } { '出力' : 'お元気ですか' }

メモリ。 コンテキストの保存 ( { '入力' : 「私は大丈夫です、あなたはどうですか」 } { '出力' : 'あまりない' }

次のコードを使用して、バッファ メモリに保存されている以前のメッセージの概要を取得します。

メッセージ = メモリ。 チャットメモリ メッセージ

前の概要 = 「」

メモリ。 予測_新しい_概要 ( メッセージ 前の概要

ステップ 3: チェーン内で会話サマリ バッファを使用する

を使用してチェーンを構築します。 会話チェーン() メッセージを保存するためのバッファ メモリの値を含むメソッド:

から ラングチェーン。 輸入 会話チェーン

会話と概要 = 会話チェーン (
llm = llm
メモリ = 会話概要バッファメモリ ( llm = OpenAI ( max_token_limit = 40
冗長な = 真実

会話と概要。 予測する ( 入力 = 「やあ、どうしたの?」

会話の概要を取得するには、predict() メソッドを使用してテキスト形式で入力を提供します。

会話と概要。 予測する ( 入力 = 「ちょうど NLP プロジェクトに取り組んでいるところです」

モデルからの出力を使用し、バッファ メモリ内のメッセージを使用してさらにデータを追加し、その概要を表示します。

会話と概要。 予測する ( 入力 = 「はい、そうです!LLM の設計に取り組んでいます。」

要約すると、出力は理解しやすく、より人間に優しく、チャットボットにより適したものになります。

会話と概要。 予測する (

入力 = 「LangChainを使ってみたい!聞いたことありますか?」

LangChain での会話概要バッファの使用については以上です。

結論

LangChain で会話サマリー バッファ メモリを使用するには、モジュールまたはフレームワークをインストールして必要なライブラリを入手するだけです。ライブラリがインポートされたら、ConverstaionsummaryBufferMemory() 関数を使用して会話の概要を取得する LLM またはチャットボットを構築します。バッファ メモリは、概要の抽出に使用するメモリに保存されるメッセージの数を制限するために使用されます。この投稿では、LangChain で会話サマリー バッファ メモリを使用するプロセスについて詳しく説明しました。