LangChain で会話バッファ ウィンドウを使用するには?
会話バッファ ウィンドウは、最新のコンテキストを取得するために会話の最新のメッセージをメモリに保持するために使用されます。 K の値は、LangChain フレームワークを使用してメッセージまたは文字列をメモリに保存するために使用されます。
LangChain で会話バッファ ウィンドウを使用するプロセスを学習するには、次のガイドを参照してください。
ステップ 1: モジュールをインストールする
会話モデルの構築に必要な依存関係を含む LangChain モジュールをインストールして、会話バッファ ウィンドウを使用するプロセスを開始します。
pip インストール ラングチェーン
その後、LangChain で大規模言語モデルを構築するために使用できる OpenAI モジュールをインストールします。
pip インストール openai
今、 OpenAI環境をセットアップする OpenAI アカウントの API キーを使用して LLM チェーンを構築するには、次のようにします。
輸入 あなた
輸入 ゲットパス
あなた 。 約 [ 「OPENAI_API_KEY」 】 = ゲットパス 。 ゲットパス ( 「OpenAI API キー:」 )
ステップ 2: 会話バッファ ウィンドウ メモリの使用
LangChain で会話バッファ ウィンドウ メモリを使用するには、 会話バッファウィンドウメモリ 図書館:
から ラングチェーン。 メモリ 輸入 会話バッファウィンドウメモリを使用してメモリを構成します。 会話バッファウィンドウメモリ () メソッドを引数として k の値を使用します。 k の値は、会話からの最新のメッセージを保持し、入力変数と出力変数を使用してトレーニング データを構成するために使用されます。
メモリ = 会話バッファウィンドウメモリ ( k = 1 )メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } 、 { '出力' : 'お元気ですか' } )
メモリ。 コンテキストの保存 ( { '入力' : 「私は大丈夫です、あなたはどうですか」 } 、 { '出力' : 'あまりない' } )
を呼び出してメモリをテストします。 ロードメモリ変数 () メソッドで会話を開始します。
メモリ。 ロードメモリ変数 ( { } )
会話の履歴を取得するには、次のコマンドを使用して ConversationBufferWindowMemory() 関数を設定します。 return_messages 口論:
メモリ = 会話バッファウィンドウメモリ ( k = 1 、 return_messages = 真実 )メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } 、 { '出力' : 'どうしたの' } )
メモリ。 コンテキストの保存 ( { '入力' : 「あなたはあまりいないよ」 } 、 { '出力' : 'あまりない' } )
ここで、次を使用してメモリを呼び出します。 ロードメモリ変数 () メソッドを使用して、会話の履歴を含む応答を取得します。
メモリ。 ロードメモリ変数 ( { } )
ステップ 3: チェーン内でバッファ ウィンドウを使用する
を使用してチェーンを構築します。 OpenAI そして 会話チェーン ライブラリを作成し、会話内の最新のメッセージを保存するようにバッファ メモリを構成します。
から ラングチェーン。 鎖 輸入 会話チェーンから ラングチェーン。 llms 輸入 OpenAI
#複数のパラメータを使用して会話の概要を構築する
会話と概要 = 会話チェーン (
llm = OpenAI ( 温度 = 0 ) 、
# k の値を指定した関数を使用してメモリ バッファを構築し、最近のメッセージを保存します
メモリ = 会話バッファウィンドウメモリ ( k = 2 ) 、
#より読みやすい出力を得るために冗長変数を構成します
冗長な = 真実
)
会話と概要。 予測する ( 入力 = 「やあ、どうしたの」 )
次に、モデルによって提供される出力に関連する質問をして、会話を続けます。
会話と概要。 予測する ( 入力 = 「彼らの問題は何ですか」 )
このモデルは、コンテキストとして使用できる以前のメッセージを 1 つだけ保存するように構成されています。
会話と概要。 予測する ( 入力 = 「順調ですか?」 )
問題の解決策を求めると、出力構造は以前のメッセージを削除することによってバッファ ウィンドウをスライドし続けます。
会話と概要。 予測する ( 入力 = 「解決策は何ですか?」 )
会話バッファ ウィンドウ LangChain を使用するプロセスについては以上です。
結論
LangChain で会話バッファ ウィンドウ メモリを使用するには、モジュールをインストールし、OpenAI の API キーを使用して環境をセットアップするだけです。その後、k の値を使用してバッファ メモリを構築し、会話内の最新のメッセージを保持してコンテキストを保持します。バッファ メモリをチェーンとともに使用して、LLM またはチェーンとの会話を開始することもできます。このガイドでは、LangChain で会話バッファ ウィンドウを使用するプロセスについて詳しく説明しました。