AI 配置完整指南
全面配置 AI 模型连接和生成参数。
📍 进入 AI 配置
方式一:主界面
点击主界面的 "AI配置" 按钮
方式二:菜单栏
打开菜单 → 点击 "AI配置"
🔌 LLM 连接设置
选择模型提供商
NativeTavern 支持多种 AI 模型提供商:
| 提供商 | 类型 | 特点 |
|---|---|---|
| OpenAI | 商业 | GPT-4o、o1、o3 等最新模型 |
| Claude | 商业 | 文学创作能力强,角色扮演首选 |
| Gemini | 商业 | Google AI,免费额度充足 |
| DeepSeek | 商业 | 性价比高,中文能力强 |
| 通义千问 | 商业 | 阿里云模型 |
| OpenRouter | 聚合 | 多模型聚合,一个 API 用多家 |
| Ollama | 本地 | 本地运行开源模型 |
| KoboldCpp | 本地 | 本地 GGUF 模型 |
| OAI 兼容 | 自定义 | 任何 OpenAI 兼容的 API |
配置 API 密钥
- 点击 "API Key" 条目
- 输入你的 API 密钥
- 点击保存
安全提示
API 密钥会安全存储在设备本地,不会上传到任何服务器。
对于本地模型或自定义端点:
| 提供商 | 默认地址 |
|---|---|
| Ollama | http://localhost:11434 |
| KoboldCpp | http://localhost:5001 |
| 自定义 | 根据服务配置 |
选择模型
- 点击 "模型" 条目
- 自动获取可用模型列表
- 选择要使用的模型
- 或手动输入模型名称
🧪 测试连接
配置完成后,点击 "测试连接" 验证配置:
| 状态 | 说明 |
|---|---|
| ✅ 连接成功 | 配置正确,可以开始使用 |
| ❌ 连接失败 | 检查 API Key、网络或地址 |
| ⏳ 测试中 | 正在验证连接 |
📝 预设与模板
AI 预设
AI 预设包含完整的采样参数配置,一键应用。
管理预设:
- 进入 AI 配置 → AI 预设
- 查看已保存的预设
- 选择激活的预设
- 可以导入/导出预设
内置预设:
- Divine Intellect(平衡型)
- Simple-1(简单参数)
- Novelist(小说创作)
Instruct 模板
Instruct 模板定义了如何格式化发送给模型的消息。
常用模板:
| 模板 | 适用模型 |
|---|---|
| ChatML | 通用格式 |
| Llama 2 Chat | LLaMA 2 模型 |
| Llama 3 | LLaMA 3/3.1/3.2 模型 |
| Alpaca | Alpaca 微调模型 |
| Vicuna | Vicuna 模型 |
| Mistral | Mistral 系列 |
提示
商业 API(OpenAI、Claude 等)会自动处理格式,无需设置 Instruct 模板。
控制发送给 AI 的提示词组成和顺序:
- 进入 AI 配置 → Prompt Manager
- 拖动调整各部分顺序
- 开关控制是否包含
- 编辑各部分内容
可配置的部分:
- 系统提示词
- 角色描述
- 角色人格
- 场景设定
- 示例对话
- 用户人设
- 作者注释
- 聊天历史
⚙️ 生成设置
上下文长度 (Context Length)
设定发送给 AI 的最大 Token 数。
| 模型 | 建议值 |
|---|---|
| GPT-4 | 128000 |
| Claude 3 | 200000 |
| 本地 7B | 4096-8192 |
| 本地 70B | 8192-32768 |
使用建议:
- 根据模型能力设置
- 更大的上下文 = 记住更多历史
- 本地模型受显存限制
最大生成 Token (Max Tokens)
AI 每次回复的最大长度。
| 值 | 效果 |
|---|---|
| 256 | 简短回复 |
| 512 | 普通回复 |
| 1024 | 详细回复 |
| 2048+ | 长篇回复 |
推荐值: 512-1024
Temperature(温度)
控制输出的随机性。
| 值 | 效果 |
|---|---|
| 0.7 | 稳定型 |
| 0.9 | 平衡型(推荐) |
| 1.1 | 创意型 |
Top-P
核采样参数,控制多样性。
推荐值: 0.9-0.95
流式响应 (Streaming)
开启后,AI 回复会逐字显示,体验更流畅。
| 设置 | 效果 |
|---|---|
| ✅ 开启 | 实时显示生成内容 |
| ❌ 关闭 | 等待完成后一次显示 |
推荐: 开启
🔧 高级采样设置
点击 "高级采样设置" 进入更多参数:
| 参数 | 用途 |
|---|---|
| Top-K | 候选 Token 数量 |
| Min-P | 动态概率过滤 |
| Typical-P | 熵采样 |
| Rep Penalty | 重复惩罚 |
| Mirostat | 自适应采样 |
| TFS | 尾部过滤 |
详见 高级设置 文档。
💾 保存配置
配置会自动保存到本地。你也可以:
- 导出配置: 备份当前设置
- 导入配置: 恢复之前的设置
- 重置默认: 恢复初始配置
📋 配置示例
示例1:Claude 角色扮演
提供商: Claude
模型: claude-3-5-sonnet-latest
Context Length: 200000
Max Tokens: 1024
Temperature: 0.9
Top-P: 0.95
Streaming: 开启示例2:本地 LLaMA 3
提供商: Ollama
API 地址: http://localhost:11434
模型: llama3.2:latest
Context Length: 8192
Max Tokens: 512
Temperature: 0.8
Instruct: Llama 3示例3:DeepSeek 经济方案
提供商: DeepSeek
模型: deepseek-chat
Context Length: 64000
Max Tokens: 1024
Temperature: 1.0
Top-P: 0.95❓ 常见问题
连接失败怎么办?
- 检查 API Key 是否正确
- 检查网络连接
- 海外模型需要代理
- 确认 API 余额充足
如何节省 Token?
- 减少上下文长度
- 精简系统提示
- 定期清理历史
- 使用更经济的模型
本地模型太慢?
- 减少上下文长度
- 使用量化版本
- 降低生成长度
- 关闭不需要的功能