Files
dify-docs/zh/use-dify/nodes/llm.mdx
2026-03-16 15:28:32 +08:00

132 lines
5.6 KiB
Plaintext
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
title: "大语言模型"
description: "调用语言模型进行文本生成和分析"
icon: "brain"
---
<Note> ⚠️ 本文档由 AI 自动翻译。如有任何不准确之处,请参考[英文原版](/en/use-dify/nodes/llm)。</Note>
大型语言模型节点调用语言模型来处理文本、图像和文档。它向你配置的模型发送提示词并捕获其响应,支持结构化输出、上下文管理和多模态输入。
<Frame caption="大型语言模型节点配置界面">
<img src="https://assets-docs.dify.ai/dify-enterprise-mintlify/en/guides/workflow/node/85730fbfa1d441d12d969b89adf2670e.png" alt="LLM Node Overview" />
</Frame>
<Info>
在使用大型语言模型节点之前,请先在**系统设置 → 模型供应商**中配置至少一个模型供应商。
</Info>
## 模型选择和参数
从你已配置的任何模型供应商中进行选择。不同模型擅长不同任务 - GPT-4 和 Claude 3.5 在复杂推理方面表现良好但成本较高,而 GPT-3.5 Turbo 在能力和经济性之间取得平衡。对于本地部署,使用 Ollama、LocalAI 或 Xinference。
<Frame caption="模型选择和参数配置">
<img src="https://assets-docs.dify.ai/dify-enterprise-mintlify/en/guides/workflow/node/43f81418ea70d4d79e3705505e777b1b.png" alt="LLM Node Configuration" />
</Frame>
模型参数控制响应生成。**温度**范围从 0确定性到 1创造性。**核采样**通过概率限制词汇选择。**频率惩罚**减少重复。**存在惩罚**鼓励新话题。你也可以使用预设:**精确**、**平衡**或**创意**。
## 提示词配置
你的界面根据模型类型自适应。聊天模型使用消息角色(**系统**用于行为,**用户**用于输入,**助手**用于示例),而完成模型使用简单的文本续写。
在提示词中使用双花括号引用工作流变量:`{{variable_name}}`。变量在到达模型之前会被实际值替换。
```text
System: You are a technical documentation expert.
User: {{user_input}}
```
## 上下文变量
上下文变量在保持来源归属的同时注入外部知识。这使得大型语言模型可以使用你的特定文档回答问题的检索增强生成应用成为可能。
<Frame caption="在检索增强生成应用中使用上下文变量">
<img src="https://assets-docs.dify.ai/dify-enterprise-mintlify/en/guides/workflow/node/5aefed96962bd994f8f05bac96b11e22.png" alt="Context Variables" />
</Frame>
将知识检索节点的输出连接到你的大型语言模型节点的上下文输入,然后引用它:
```text
Answer using only this context:
{{knowledge_retrieval.result}}
Question: {{user_question}}
```
当使用来自知识检索的上下文变量时Dify 会自动跟踪引用,以便用户看到信息来源。
## 结构化输出
强制模型返回特定数据格式(如 JSON以便程序化使用。通过三种方法配置
<Tabs>
<Tab title="可视化编辑器">
用户友好的界面适用于简单结构。添加具有名称和类型的字段,标记必需字段,设置描述。编辑器自动生成 JSON Schema。
</Tab>
<Tab title="JSON Schema">
直接编写 Schema适用于具有嵌套对象、数组和验证规则的复杂结构。
```json
{
"type": "object",
"properties": {
"sentiment": {
"type": "string",
"enum": ["positive", "negative", "neutral"]
}
},
"required": ["sentiment"]
}
```
</Tab>
<Tab title="AI 生成">
用自然语言描述需求,让 AI 生成 Schema。
</Tab>
</Tabs>
<Warning>
具有原生 JSON 支持的模型可以可靠地处理结构化输出。对于其他模型Dify 在提示词中包含 Schema但结果可能有所不同。
</Warning>
## 记忆和文件处理
![](/images/llm-memory.png)
启用记忆以在聊天流对话中的多个大型语言模型调用之间维护上下文。启用后,之前的交互将作为格式化的用户-助手输出包含在后续提示词中。你可以通过编辑 `USER` 模板来自定义用户提示词的内容。记忆是节点特定的,不会在不同对话之间持续存在。
对于**文件处理**将文件变量添加到多模态模型的提示词中。GPT-4V 处理图像Claude 直接处理 PDF而其他模型可能需要预处理。
### 视觉能力配置
处理图像时,你可以控制细节级别:
- **高细节** - 对复杂图像具有更好的准确性但使用更多令牌
- **低细节** - 对简单图像进行更快处理,使用较少令牌
视觉能力的默认变量选择器是 `userinput.files`,它会自动从用户输入节点获取文件。
<Frame caption="多模态模型的文件处理">
<img src="https://assets-docs.dify.ai/2024/11/05b3d4a78038bc7afbb157078e3b2b26.png" alt="File Processing" />
</Frame>
## Jinja2 模板支持
大型语言模型提示词支持 Jinja2 模板以进行高级变量处理。当你使用 Jinja2 模式(`edition_type: "jinja2"`)时,你可以:
```jinja
{% for item in search_results %}
{{ loop.index }}. {{ item.title }}: {{ item.content }}
{% endfor %}
```
Jinja2 变量与常规变量替换分别处理,允许在提示词中进行循环、条件和复杂数据转换。
## 流式结果返回
大型语言模型节点默认支持流式结果返回。每个文本块都作为 `RunStreamChunkEvent` 产生,实现实时响应显示。文件输出(图像、文档)在流式传输期间自动处理和保存。
## 错误处理
为失败的大型语言模型调用配置重试行为。设置最大重试次数、重试间隔和退避乘数。当重试不足时,定义回退策略,如默认值、错误路由或替代模型。