From 6b1e52799b9ed34302304ef905769996cae696a0 Mon Sep 17 00:00:00 2001 From: "github-actions[bot]" <41898282+github-actions[bot]@users.noreply.github.com> Date: Wed, 17 Dec 2025 18:09:06 +0800 Subject: [PATCH] =?UTF-8?q?=F0=9F=8C=90=20Sync=20PR=20#621=20translations:?= =?UTF-8?q?=20Remove=20outdated=20content=20related=20to=20conversation=20?= =?UTF-8?q?history=20variables=20from=20the=20llm=20node=20page=20(#622)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * 🌐 Initial translations for PR #621 Auto-generated translations for documentation changes in PR #621. Last-Processed-Commit: 6619ef3a4c89e922cd1d9427c757673dafef3c11 Original-PR: #621 Languages: Chinese (zh), Japanese (ja) 🤖 Generated with GitHub Actions * Update LLM node setup instructions Removed link to model plugin installation instructions. * Update LLM node documentation --------- Co-authored-by: github-actions[bot] Co-authored-by: Riskey <36894937+RiskeyL@users.noreply.github.com> --- ja/use-dify/nodes/llm.mdx | 30 ++++++++++++------------------ zh/use-dify/nodes/llm.mdx | 23 +++++++++-------------- 2 files changed, 21 insertions(+), 32 deletions(-) diff --git a/ja/use-dify/nodes/llm.mdx b/ja/use-dify/nodes/llm.mdx index e5fb911f..5b00f589 100644 --- a/ja/use-dify/nodes/llm.mdx +++ b/ja/use-dify/nodes/llm.mdx @@ -6,7 +6,6 @@ icon: "brain" ⚠️ このドキュメントはAIによって自動翻訳されています。不正確な部分がある場合は、[英語版](/en/use-dify/nodes/llm)を参照してください。 - LLMノードは大規模言語モデルを呼び出してテキスト、画像、ドキュメントを処理します。設定されたモデルにプロンプトを送信し、その応答を取得します。構造化出力、コンテキスト管理、マルチモーダル入力をサポートしています。 @@ -14,18 +13,18 @@ LLMノードは大規模言語モデルを呼び出してテキスト、画像 - LLMノードを使用する前に、**システム設定 → モデルプロバイダー**で少なくとも1つのモデルプロバイダーを設定してください。セットアップ手順については[モデル設定ガイド](/en/guides/model-configuration/readme)をご覧ください。 + LLMノードを使用する前に、**システム設定 → モデルプロバイダー**で少なくとも1つのモデルプロバイダーを設定してください。 -## モデル選択とパラメーター +## モデル選択とパラメータ 設定したモデルプロバイダーから任意のモデルを選択できます。異なるモデルはそれぞれ異なるタスクに適しています。GPT-4とClaude 3.5は複雑な推論を得意としますがコストが高く、GPT-3.5 Turboは機能と価格のバランスが取れています。ローカル展開には、Ollama、LocalAI、Xinferenceを使用してください。 - + LLM Node Configuration -モデルパラメーターは応答生成を制御します。**温度**は0(決定的)から1(創造的)の範囲です。**核サンプリング**は確率によって単語選択を制限します。**頻度ペナルティ**は繰り返しを減らします。**存在ペナルティ**は新しいトピックを促進します。プリセットも使用できます:**精密**、**バランス**、**創造的**。 +モデルパラメータは応答生成を制御します。**温度**は0(決定的)から1(創造的)の範囲です。**Top P**は確率によって単語選択を制限します。**頻度ペナルティ**は繰り返しを減らします。**存在ペナルティ**は新しいトピックを促進します。プリセットも使用できます:**精密**、**バランス**、**創造的**。 ## プロンプト設定 @@ -40,7 +39,7 @@ User: {{user_input}} ## コンテキスト変数 -コンース帰属を保持しながら外部知識を注入します。これにより、大規模言語モデルがあなたの特定のドキュメントを使用して質問に答えるRAGアプリケーションが可能になります。 +コンテキスト変数はソース帰属を保持しながら外部知識を注入します。これにより、大規模言語モデルがあなたの特定のドキュメントを使用して質問に答えるRAGアプリケーションが可能になります。 Context Variables @@ -55,7 +54,7 @@ User: {{user_input}} 質問:{{user_question}} ``` -知識検索からのコンテキスト変数を使用する場合、Difyは自動的に引用と帰属を追跡するため、ユーザーは情報源を確認できます。 +知識検索からのコンテキスト変数を使用する場合、Difyは自動的に引用を追跡するため、ユーザーは情報源を確認できます。 ## 構造化出力 @@ -94,9 +93,10 @@ User: {{user_input}} ## メモリとファイル処理 -**メモリ**を有効にすると、ワークフロー実行内の複数のLLM呼び出しでコンテキストを維持できます。ノードは以前のインタラクションを後続のプロンプトに含めます。メモリはノード固有であり、ワークフロー実行間では持続しません。 +![](/images/llm-memory.png) +メモリを有効にすると、チャットフロー会話内の複数のLLM呼び出しでコンテキストを維持できます。有効にすると、以前のインタラクションがフォーマットされたユーザー - アシスタント出力として後続のプロンプトに含まれます。`USER`テンプレートを編集することで、ユーザープロンプトに入力される内容をカスタマイズできます。メモリはノード固有であり、異なる会話間では持続しません。 -**ファイル処理**では、マルチモーダルモデル用にプロンプトにファイル変数を追加します。GPT-4Vは画像をaudeはPDFを直接処理しますが、他のモデルでは前処理が必要な場合があります。 +**ファイル処理**では、マルチモーダルモデル用にプロンプトにファイル変数を追加します。GPT-4Vは画像を、ClaudeはPDFを直接処理しますが、他のモデルでは前処理が必要な場合があります。 ### ビジョン機能設定 @@ -104,18 +104,12 @@ User: {{user_input}} - **高詳細** - 複雑な画像でより良い精度を提供しますが、より多くのトークンを使用します - **低詳細** - シンプルな画像でより少ないトークンでより高速な処理 -ビジョン機能のデフォルト変数セレクターは`sys.files`で、開始ノードからファイルを自動的に取得します。 +ビジョン機能のデフォルト変数セレクターは`userinput.files`で、ユーザー入力ノードからファイルを自動的に取得します。 File Processing -補完モデルでの会話履歴については、マルチターンコンテキストを維持するために会話変数を挿入します: - - - Conversation History - - ## Jinja2テンプレートサポート LLMプロンプトは高度な変数処理のためにJinja2テンプレートをサポートしています。Jinja2モード(`edition_type: "jinja2"`)を使用すると、次のことができます: @@ -128,9 +122,9 @@ LLMプロンプトは高度な変数処理のためにJinja2テンプレート Jinja2変数は通常の変数置換とは別に処理され、プロンプト内でループ、条件文、複雑なデータ変換が可能になります。 -## ストリーミングレスポンス +## ストリーミング出力 -LLMノードはデフォルトでストリーミングレスポンスをサポートしています。各テキストチャンクは`RunStreamChunkEvent`として生成され、リアルタイムの応答表示が可能になります。ファイル出力(画像、ドキュメント)はストリーミング中に自動的に処理され保存されます。 +LLMノードはデフォルトでストリーミング出力をサポートしています。各テキストチャンクは`RunStreamChunkEvent`として生成され、リアルタイムの応答表示が可能になります。ファイル出力(画像、ドキュメント)はストリーミング中に自動的に処理され保存されます。 ## エラーハンドリング diff --git a/zh/use-dify/nodes/llm.mdx b/zh/use-dify/nodes/llm.mdx index 8d7883e6..6c76e1ce 100644 --- a/zh/use-dify/nodes/llm.mdx +++ b/zh/use-dify/nodes/llm.mdx @@ -1,11 +1,11 @@ --- title: "大语言模型" +description: "调用语言模型进行文本生成和分析" icon: "brain" --- ⚠️ 本文档由 AI 自动翻译。如有任何不准确之处,请参考[英文原版](/en/use-dify/nodes/llm)。 - 大型语言模型节点调用语言模型来处理文本、图像和文档。它向你配置的模型发送提示词并捕获其响应,支持结构化输出、上下文管理和多模态输入。 @@ -13,7 +13,7 @@ icon: "brain" - 在使用大型语言模型节点之前,请先在**系统设置 → 模型供应商**中配置至少一个模型供应商。请参阅[模型配置指南](/zh/use-dify/workspace/model-providers)了解设置说明。 + 在使用大型语言模型节点之前,请先在**系统设置 → 模型供应商**中配置至少一个模型供应商。 ## 模型选择和参数 @@ -54,7 +54,7 @@ Answer using only this context: Question: {{user_question}} ``` -当使用来自知识检索的上下文变量时,Dify 会自动跟踪引用与归属,以便用户看到信息来源。 +当使用来自知识检索的上下文变量时,Dify 会自动跟踪引用,以便用户看到信息来源。 ## 结构化输出 @@ -83,7 +83,7 @@ Question: {{user_question}} - 用自然语言描述需求,让 AI 生成 Schema + 用自然语言描述需求,让 AI 生成 Schema。 @@ -93,28 +93,23 @@ Question: {{user_question}} ## 记忆和文件处理 -启用**记忆**以在工作流运行中的多个大型语言模型调用之间维护上下文。该节点在后续提示词中包含之前的交互。记忆是节点特定的,不会在工作流运行之间持续存在。 +![](/images/llm-memory.png) +启用记忆以在聊天流对话中的多个大型语言模型调用之间维护上下文。启用后,之前的交互将作为格式化的用户-助手输出包含在后续提示词中。你可以通过编辑 `USER` 模板来自定义用户提示词的内容。记忆是节点特定的,不会在不同对话之间持续存在。 对于**文件处理**,将文件变量添加到多模态模型的提示词中。GPT-4V 处理图像,Claude 直接处理 PDF,而其他模型可能需要预处理。 ### 视觉能力配置 处理图像时,你可以控制细节级别: -- **高细节** - 对复杂图像具有更好的准确性但使用更多标记数 -- **低细节** - 对简单图像进行更快处理,使用较少标记数 +- **高细节** - 对复杂图像具有更好的准确性但使用更多令牌 +- **低细节** - 对简单图像进行更快处理,使用较少令牌 -视觉能力的默认变量选择器是 `sys.files`,它会自动从开始节点获取文件。 +视觉能力的默认变量选择器是 `userinput.files`,它会自动从用户输入节点获取文件。 File Processing -对于完成模型中的对话历史,插入对话变量以维护多轮对话上下文: - - - Conversation History - - ## Jinja2 模板支持 大型语言模型提示词支持 Jinja2 模板以进行高级变量处理。当你使用 Jinja2 模式(`edition_type: "jinja2"`)时,你可以: