Skip to content

Conversation

@dajinglingpake
Copy link

Summary

  • 新增 OpenAI 提供商的 base_url 配置选项,支持 Ollama、vLLM 等本地模型
  • OpenAI 提供商的 API Key 改为可选(本地模型不需要)
  • 前端设置页面增加 Base URL 输入框,留空时显示默认地址
  • 修复 simple_progress.py 缺少 os 模块导入的问题

使用方法

  1. 在设置页面选择 OpenAI 提供商
  2. 在 "API Base URL" 输入本地模型地址,如:
    • Ollama: http://localhost:11434/v1
    • vLLM: http://localhost:8000/v1
  3. API Key 可留空(本地模型不需要)
  4. 手动输入模型名称(如 qwen3:8b
  5. 点击测试连接验证配置

Test plan

  • 测试 Ollama 本地模型连接成功
  • 测试不填 API Key 时可正常使用本地模型
  • 测试默认 OpenAI 官方地址仍可正常使用

🤖 Generated with Claude Code

- 新增 OpenAI 提供商的 base_url 配置选项,支持 Ollama、vLLM 等本地模型
- OpenAI 提供商的 API Key 改为可选(本地模型不需要)
- 前端设置页面增加 Base URL 输入框
- 修复 simple_progress.py 缺少 os 模块导入的问题

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude Sonnet 4.5 <[email protected]>
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

1 participant