-
Notifications
You must be signed in to change notification settings - Fork 3.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
vllm本地 QWQ-32B模型,app.llm:ask_tool:260 - API error: Connection error. #378
Comments
用Ollama遇到了相同的问题 |
我试着随便填入api_key = "aaa" ,就可以了,看来不能留空 I tried randomly filling in api_key = "aaa" and it worked, seems like it can't be left blank. |
什么是功能 API 调用? qwq:latest 模型的局限性 与 openmanus 的兼容性问题 Key Points
왜 ollama가 기능 API 호출을 지원하지 않는다고 하는지 ollama가 qwq:latest 모델을 사용해 openmanus에서 여행 계획을 요청할 때 기능 API 호출을 지원하지 않는다고 말하는 것은, 이 모델이 외부 함수나 API를 호출할 수 있는 능력이 없음을 나타냅니다.여행 계획 작성은 실시간 정보(예: 항공편 가격, 호텔 가용성 등)를 얻기 위해 외부 API 호출이 필요할 수 있습니다. 그러나 qwq:latest 모델은 이러한 기능을 지원하지 않으므로, openmanus는 이 작업을 수행할 수 없습니다.따라서 사용자는 기능 호출을 지원하는 다른 모델, 예를 들어 Llama 3.1과 같은 모델을 선택해야 할 수 있습니다. 다음 단계 openmanus 문서나 지원 포럼에서 호환 가능한 모델 목록을 확인하고, 필요에 따라 설정을 조정하세요. 예를 들어, Ollama 도구 지원 블로그에서 지원되는 모델에 대한 정보를 찾을 수 있습니다. 긴 보고서: 상세 설명 ollama의 qwq:latest 모델을 openmanus에서 여행 계획 작성에 사용하려고 할 때, ollama가 기능 API 호출을 지원하지 않는다고 하는 이유와 그 의미를 자세히 살펴보겠습니다. 이 보고서는 관련 정보를 체계적으로 정리하여 사용자가 문제를 이해하고 해결할 수 있도록 돕습니다. 배경: openmanus와 ollama의 역할 openmanus는 MetaGPT의 기여자들에 의해 개발된 오픈소스 AI 에이전트 시스템으로, 작업 자동화를 위해 대형 언어 모델(LLM)을 사용합니다. 이 시스템은 특히 복잡한 작업, 예를 들어 여행 계획 작성과 같은 작업을 수행할 때 외부 API 호출이 필요할 수 있습니다.한편, ollama는 다양한 LLM을 로컬 머신에서 실행할 수 있게 해주는 플랫폼으로, 사용자가 Llama, Mistral, Qwen 시리즈 등 여러 모델을 실행할 수 있습니다. 여기서 qwq:latest 모델은 Qwen 시리즈의 추론 모델로, 특히 어려운 문제 해결에 강점이 있는 것으로 알려져 있습니다. 기능 API 호출이란? 기능 API 호출은 LLM이 외부 도구나 API와 상호작용할 수 있게 해주는 기능입니다. 예를 들어, “토론토의 날씨는 어떤가요?“라는 질문에 답하려면 날씨 API를 호출해야 할 수 있습니다. 일부 LLM은 이러한 호출을 생성할 수 있도록 세밀하게 조정되어 있으며, 이는 주로 JSON 형식의 출력으로 함수 호출을 제안하는 방식으로 이루어집니다.이 기능은 LLM이 텍스트 생성 외에도 실시간 데이터에 접근하거나 외부 작업을 수행할 수 있게 해주며, openmanus와 같은 에이전트 시스템에서 필수적일 수 있습니다. qwq:latest 모델의 한계 ollama의 공식 라이브러리에서 qwq 모델을 확인해보면, 이 모델은 “chat, text-generation” 태그가 붙어 있으며, “tools” 태그는 포함되지 않습니다. Ollama 모델 라이브러리에서 확인할 수 있듯이, qwq 모델은 주로 대화와 텍스트 생성에 최적화되어 있으며, 기능 호출을 명시적으로 지원하지 않는 것으로 보입니다.반면, Llama 3.1과 같은 모델은 Ollama 블로그에 따르면 도구 호출을 지원하며, 이는 특정 모델이 기능 호출을 처리할 수 있도록 훈련되었음을 나타냅니다. qwq 모델의 경우, 템플릿에서 도구에 대한 언급이 있긴 하지만(qwq 템플릿), 이는 모델이 도구를 이해할 수 있는 잠재력을 가진다는 것을 보여줄 뿐, 실제로 기능 호출을 지원하는지 명확하지 않습니다. openmanus와의 호환성 문제 openmanus는 LLM을 사용하여 작업 계획을 생성하고, 이를 실행하기 위해 외부 함수 호출이 필요할 수 있습니다. 예를 들어, 여행 계획 작성 시 항공편 검색, 호텔 예약 등을 위해 외부 API를 호출해야 할 수 있습니다. 그러나 qwq:latest 모델이 이러한 기능 호출을 지원하지 않으면, openmanus는 해당 작업을 완료할 수 없습니다.OpenManus GitHub 이슈에서 사용자가 phi-4 mini와 llava:7b 모델을 기능 호출에 사용하려고 시도한 사례를 볼 수 있습니다. 이는 openmanus가 기능 호출을 지원하는 모델을 기대한다는 증거입니다. 그러나 qwq 모델에 대한 명시적인 지원은 확인되지 않았습니다. 결론 및 권장 사항 결론적으로, ollama가 qwq:latest 모델이 기능 API 호출을 지원하지 않는다고 말하는 것은 이 모델이 openmanus에서 필요한 외부 함수 호출을 생성할 수 없음을 의미합니다. 이는 여행 계획 작성과 같은 작업에서 실시간 데이터 접근이나 외부 작업 실행이 제한될 수 있음을 나타냅니다.사용자는 기능 호출을 지원하는 다른 모델, 예를 들어 Llama 3.1이나 다른 “tools” 태그가 있는 모델을 선택해야 합니다. Ollama 도구 지원 블로그에서 지원되는 모델 목록을 확인하고, openmanus 설정에서 적합한 모델을 구성하세요. 표: 모델과 기능 호출 지원 비교 모델태그기능 호출 지원 여부qwq:latestchat, text-generation지원하지 않음Llama 3.1tools (추정)지원phi-4 mini미확인가능성 있음이 표는 모델의 태그와 기능 호출 지원 여부를 요약한 것으로, qwq:latest 모델이 기능 호출을 지원하지 않는다는 점을 강조합니다. 추가 고려 사항 openmanus의 최신 업데이트나 커뮤니티 포럼에서 qwq 모델과의 호환성에 대한 논의가 있을 수 있으므로, OpenManus GitHub에서 관련 이슈를 확인하는 것이 좋습니다. 또한, ollama의 API 문서(Ollama API 문서)에서 모델별 기능 호출 지원 여부를 더 자세히 알아볼 수 있습니다. Key Citations
|
[llm] |
我本地用vllm启动了一个QWQ-32B模型,报错。
2025-03-10 12:20:50.186 | WARNING | main:main:19 - Processing your request...
2025-03-10 12:20:50.186 | INFO | app.agent.base:run:137 - Executing step 1/30
2025-03-10 12:20:51.414 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
2025-03-10 12:20:53.777 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
2025-03-10 12:20:56.502 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
2025-03-10 12:21:01.356 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
2025-03-10 12:21:04.680 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
2025-03-10 12:21:08.060 | ERROR | app.llm:ask_tool:260 - API error: Connection error.
config配置为:
Global LLM configuration
[llm]
model = "QwQ-32b"
base_url = "http://101.223.8.9:8012/v1"
api_key = ""
max_tokens = 4096
temperature = 0.0
Optional configuration for specific LLM models
[llm.vision]
model = "QwQ-32b"
base_url = "http://101.223.8.9:8012/v1"
api_key = ""
The text was updated successfully, but these errors were encountered: