LangChain で会話バッファ ウィンドウを使用するには?

Langchain De Hui Huabaffa U Indouwo Shi Yongsuruniha



LangChain は、機械学習モデルを使用して言語モデルやチャットボットをトレーニングするために Python ノートブックで使用できるフレームワークです。これらの言語モデルは、人間に似た言語で訓練した後、人間と自然言語で会話するために使用されます。 この投稿では、LangChain で会話バッファ ウィンドウを使用するプロセスを説明します。

LangChain で会話バッファ ウィンドウを使用するには?

会話バッファ ウィンドウは、最新のコンテキストを取得するために会話の最新のメッセージをメモリに保持するために使用されます。 K の値は、LangChain フレームワークを使用してメッセージまたは文字列をメモリに保存するために使用されます。

LangChain で会話バッファ ウィンドウを使用するプロセスを学習するには、次のガイドを参照してください。







ステップ 1: モジュールをインストールする

会話モデルの構築に必要な依存関係を含む LangChain モジュールをインストールして、会話バッファ ウィンドウを使用するプロセスを開始します。



pip インストール ラングチェーン



その後、LangChain で大規模言語モデルを構築するために使用できる OpenAI モジュールをインストールします。





pip インストール openai

今、 OpenAI環境をセットアップする OpenAI アカウントの API キーを使用して LLM チェーンを構築するには、次のようにします。



輸入 あなた
輸入 ゲットパス

あなた [ 「OPENAI_API_KEY」 = ゲットパス ゲットパス ( 「OpenAI API キー:」 )

ステップ 2: 会話バッファ ウィンドウ メモリの使用

LangChain で会話バッファ ウィンドウ メモリを使用するには、 会話バッファウィンドウメモリ 図書館:

から ラングチェーン。 メモリ 輸入 会話バッファウィンドウメモリ

を使用してメモリを構成します。 会話バッファウィンドウメモリ () メソッドを引数として k の値を使用します。 k の値は、会話からの最新のメッセージを保持し、入力変数と出力変数を使用してトレーニング データを構成するために使用されます。

メモリ = 会話バッファウィンドウメモリ ( k = 1 )

メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } { '出力' : 'お元気ですか' } )

メモリ。 コンテキストの保存 ( { '入力' : 「私は大丈夫です、あなたはどうですか」 } { '出力' : 'あまりない' } )

を呼び出してメモリをテストします。 ロードメモリ変数 () メソッドで会話を開始します。

メモリ。 ロードメモリ変数 ( { } )

会話の履歴を取得するには、次のコマンドを使用して ConversationBufferWindowMemory() 関数を設定します。 return_messages 口論:

メモリ = 会話バッファウィンドウメモリ ( k = 1 return_messages = 真実 )

メモリ。 コンテキストの保存 ( { '入力' : 'こんにちは' } { '出力' : 'どうしたの' } )

メモリ。 コンテキストの保存 ( { '入力' : 「あなたはあまりいないよ」 } { '出力' : 'あまりない' } )

ここで、次を使用してメモリを呼び出します。 ロードメモリ変数 () メソッドを使用して、会話の履歴を含む応答を取得します。

メモリ。 ロードメモリ変数 ( { } )

ステップ 3: チェーン内でバッファ ウィンドウを使用する

を使用してチェーンを構築します。 OpenAI そして 会話チェーン ライブラリを作成し、会話内の最新のメッセージを保存するようにバッファ メモリを構成します。

から ラングチェーン。 輸入 会話チェーン
から ラングチェーン。 llms 輸入 OpenAI
#複数のパラメータを使用して会話の概要を構築する
会話と概要 = 会話チェーン (
llm = OpenAI ( 温度 = 0 )
# k の値を指定した関数を使用してメモリ バッファを構築し、最近のメッセージを保存します
メモリ = 会話バッファウィンドウメモリ ( k = 2 )
#より読みやすい出力を得るために冗長変数を構成します
冗長な = 真実
)
会話と概要。 予測する ( 入力 = 「やあ、どうしたの」 )

次に、モデルによって提供される出力に関連する質問をして、会話を続けます。

会話と概要。 予測する ( 入力 = 「彼らの問題は何ですか」 )

このモデルは、コンテキストとして使用できる以前のメッセージを 1 つだけ保存するように構成されています。

会話と概要。 予測する ( 入力 = 「順調ですか?」 )

問題の解決策を求めると、出力構造は以前のメッセージを削除することによってバッファ ウィンドウをスライドし続けます。

会話と概要。 予測する ( 入力 = 「解決策は何ですか?」 )

会話バッファ ウィンドウ LangChain を使用するプロセスについては以上です。

結論

LangChain で会話バッファ ウィンドウ メモリを使用するには、モジュールをインストールし、OpenAI の API キーを使用して環境をセットアップするだけです。その後、k の値を使用してバッファ メモリを構築し、会話内の最新のメッセージを保持してコンテキストを保持します。バッファ メモリをチェーンとともに使用して、LLM またはチェーンとの会話を開始することもできます。このガイドでは、LangChain で会話バッファ ウィンドウを使用するプロセスについて詳しく説明しました。