# LLM 模型 本页是资源库中 LLM 模型的正式说明页,聚焦文本生成、嵌入和重排模型的接入与选择。 ## 这页负责什么 当你需要为助手配置“理解与生成能力”时,请从这里开始决定: - 使用哪个供应商或模型家族 - 该模型负责文本生成、嵌入还是重排 - 接口地址、认证信息和默认参数如何设置 语音识别和语音合成分别由 [语音识别](asr.md) 与 [声音资源](voices.md) 说明,不在本页重复。 ## 模型类型 | 类型 | 用途 | 常见场景 | |------|------|----------| | **文本模型** | 生成回复、总结、分类、规划 | 助手主对话、工具调用决策 | | **嵌入模型** | 向量化文档或查询 | 知识库检索 | | **重排模型** | 对检索结果再次排序 | 提升知识召回质量 | ## 配置清单 | 配置项 | 说明 | 建议 | |--------|------|------| | **供应商** | OpenAI 兼容、托管平台或自建服务 | 用统一命名规范区分环境 | | **模型名称** | 控制台中的显示名称 | 体现厂商、用途和环境 | | **模型标识** | 请求中实际使用的 model 名称 | 保持与供应商文档一致 | | **Base URL** | 接口地址 | 为不同环境分别配置 | | **API Key / Token** | 鉴权凭证 | 与显示名称配套管理 | | **默认参数** | Temperature、Max Tokens、上下文长度等 | 按业务场景收敛默认值 | ## 选择建议 - **先按用途选模型,再按成本和延迟筛选供应商** - **文本模型不要承担知识库检索职责**:检索应交给嵌入与重排模型 - **为不同环境建立清晰命名**:如 `prod-gpt4o-mini`、`staging-qwen-text` - **默认参数要保守**:让助手默认稳定,再在单个场景内按需调优 ## 常见组合 | 目标 | 推荐组合 | |------|----------| | **通用对话助手** | 1 个文本模型 | | **知识问答助手** | 文本模型 + 嵌入模型 | | **高质量知识召回** | 文本模型 + 嵌入模型 + 重排模型 | ## 下一步 - [语音识别](asr.md) - 为语音输入选择 ASR - [声音资源](voices.md) - 为语音输出准备 TTS 资源 - [知识库](knowledge-base.md) - 把嵌入 / 重排模型接入 RAG 链路