Skip to content

AI 配置完整指南

全面配置 AI 模型连接和生成参数。


📍 进入 AI 配置

方式一:主界面

点击主界面的 "AI配置" 按钮

方式二:菜单栏

打开菜单 → 点击 "AI配置"


🔌 LLM 连接设置

选择模型提供商

NativeTavern 支持多种 AI 模型提供商:

提供商类型特点
OpenAI商业GPT-4o、o1、o3 等最新模型
Claude商业文学创作能力强,角色扮演首选
Gemini商业Google AI,免费额度充足
DeepSeek商业性价比高,中文能力强
通义千问商业阿里云模型
OpenRouter聚合多模型聚合,一个 API 用多家
Ollama本地本地运行开源模型
KoboldCpp本地本地 GGUF 模型
OAI 兼容自定义任何 OpenAI 兼容的 API

配置 API 密钥

  1. 点击 "API Key" 条目
  2. 输入你的 API 密钥
  3. 点击保存

安全提示

API 密钥会安全存储在设备本地,不会上传到任何服务器。

对于本地模型或自定义端点:

提供商默认地址
Ollamahttp://localhost:11434
KoboldCpphttp://localhost:5001
自定义根据服务配置

选择模型

  1. 点击 "模型" 条目
  2. 自动获取可用模型列表
  3. 选择要使用的模型
  4. 或手动输入模型名称

🧪 测试连接

配置完成后,点击 "测试连接" 验证配置:

状态说明
✅ 连接成功配置正确,可以开始使用
❌ 连接失败检查 API Key、网络或地址
⏳ 测试中正在验证连接

📝 预设与模板

AI 预设

AI 预设包含完整的采样参数配置,一键应用。

管理预设:

  1. 进入 AI 配置 → AI 预设
  2. 查看已保存的预设
  3. 选择激活的预设
  4. 可以导入/导出预设

内置预设:

  • Divine Intellect(平衡型)
  • Simple-1(简单参数)
  • Novelist(小说创作)

Instruct 模板

Instruct 模板定义了如何格式化发送给模型的消息。

常用模板:

模板适用模型
ChatML通用格式
Llama 2 ChatLLaMA 2 模型
Llama 3LLaMA 3/3.1/3.2 模型
AlpacaAlpaca 微调模型
VicunaVicuna 模型
MistralMistral 系列

提示

商业 API(OpenAI、Claude 等)会自动处理格式,无需设置 Instruct 模板。

控制发送给 AI 的提示词组成和顺序:

  1. 进入 AI 配置 → Prompt Manager
  2. 拖动调整各部分顺序
  3. 开关控制是否包含
  4. 编辑各部分内容

可配置的部分:

  • 系统提示词
  • 角色描述
  • 角色人格
  • 场景设定
  • 示例对话
  • 用户人设
  • 作者注释
  • 聊天历史

⚙️ 生成设置

上下文长度 (Context Length)

设定发送给 AI 的最大 Token 数。

模型建议值
GPT-4128000
Claude 3200000
本地 7B4096-8192
本地 70B8192-32768

使用建议:

  • 根据模型能力设置
  • 更大的上下文 = 记住更多历史
  • 本地模型受显存限制

最大生成 Token (Max Tokens)

AI 每次回复的最大长度。

效果
256简短回复
512普通回复
1024详细回复
2048+长篇回复

推荐值: 512-1024

Temperature(温度)

控制输出的随机性。

效果
0.7稳定型
0.9平衡型(推荐)
1.1创意型

Top-P

核采样参数,控制多样性。

推荐值: 0.9-0.95

流式响应 (Streaming)

开启后,AI 回复会逐字显示,体验更流畅。

设置效果
✅ 开启实时显示生成内容
❌ 关闭等待完成后一次显示

推荐: 开启


🔧 高级采样设置

点击 "高级采样设置" 进入更多参数:

参数用途
Top-K候选 Token 数量
Min-P动态概率过滤
Typical-P熵采样
Rep Penalty重复惩罚
Mirostat自适应采样
TFS尾部过滤

详见 高级设置 文档。


💾 保存配置

配置会自动保存到本地。你也可以:

  • 导出配置: 备份当前设置
  • 导入配置: 恢复之前的设置
  • 重置默认: 恢复初始配置

📋 配置示例

示例1:Claude 角色扮演

提供商: Claude
模型: claude-3-5-sonnet-latest
Context Length: 200000
Max Tokens: 1024
Temperature: 0.9
Top-P: 0.95
Streaming: 开启

示例2:本地 LLaMA 3

提供商: Ollama
API 地址: http://localhost:11434
模型: llama3.2:latest
Context Length: 8192
Max Tokens: 512
Temperature: 0.8
Instruct: Llama 3

示例3:DeepSeek 经济方案

提供商: DeepSeek
模型: deepseek-chat
Context Length: 64000
Max Tokens: 1024
Temperature: 1.0
Top-P: 0.95

❓ 常见问题

连接失败怎么办?

  1. 检查 API Key 是否正确
  2. 检查网络连接
  3. 海外模型需要代理
  4. 确认 API 余额充足

如何节省 Token?

  1. 减少上下文长度
  2. 精简系统提示
  3. 定期清理历史
  4. 使用更经济的模型

本地模型太慢?

  1. 减少上下文长度
  2. 使用量化版本
  3. 降低生成长度
  4. 关闭不需要的功能

---

🔗 相关文档


返回功能列表

Released under the MIT License.