Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

使用这个 sh scripts/run_assistant_server.sh 部署模型之后,会不会比VLLM速度慢很多 #506

Open
LIUKAI0815 opened this issue Jun 26, 2024 · 8 comments

Comments

@LIUKAI0815
Copy link

sh scripts/run_assistant_server.sh --served-model-name Qwen2-7B-Instruct --model path/to/weights
这个比VLLM推理速度慢吗

@zzhangpurdue
Copy link
Collaborator

不会,一样快,底层就是调用vllm

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 27, 2024

sh scripts/run_assistant_server.sh --served-model-name Qwen2-7B-Instruct --model path/to/weights 这条命令怎么修改模型路径的位置,因为使用这条命令,读取的模型位置会自动跳转到modelscope下载的位置,而不是我的本地位置,我本地的模型在自己的路径里,所以会出现requests.exceptions.HTTPError: The request model: /workspace/model/llm/Qwen/Qwen2-7B-Instruct/ does not exist!的报错

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 27, 2024

@zzhangpurdue vi /opt/conda/lib/python3.10/site-packages/vllm/config.py
企业微信截图_17194981507011
注释掉里面的代码就好了
咱们开发这种框架,能不能把这种参数在命令行里的参数就添加上

@zzhangpurdue
Copy link
Collaborator

之前我们尝试的时候确实是利用modelscope的下载地址进行测试的,没有考虑非modelscope的地址,这里我们看看如何修改。
感谢提供意见。

@zzhangpurdue
Copy link
Collaborator

刚试了一下,把模型挪出modelscope的下载路径然后也还是没有复现这个问题,是否可以告诉我一下你的vllm版本?

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 28, 2024

GPU环境镜像(python3.10),ubuntu22.04-cuda12.1.0-py310-torch2.1.2-tf2.14.0-1.13.1 。 这个官方镜像里的,vllm是0.3.0。

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 28, 2024

@zzhangpurdue
企业微信截图_1719546363179
包括swift的框架里也有这个代码,之前运行的时候也会遇过同类问题。
vi /opt/conda/envs/swift/lib/python3.10/site-packages/vllm/config.py 在这里面,环境也是上面提到的。

@zzhangpurdue
Copy link
Collaborator

我这里run脚本的时候默认 export VLLM_USE_MODELSCOPE=false 应该是可以解决这个问题。
参考 #507

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants